خبراء يشككون في شرعية الحرب الأميركية الإسرائيلية على إيران.. وتوظيف الذكاء الاصطناعي في الحرب يطرح أسئلة أخلاقية وقانونية

منذ 1 شهر 16
ARTICLE AD BOX

خبراء يشككون في شرعية الحرب الأميركية الإسرائيلية على إيران.. وتوظيف الذكاء الاصطناعي في الحرب يطرح أسئلة أخلاقية وقانونية

السبت 07 مارس 2026 | 15:34

تقول الولايات المتحدة إن هجومها العسكري على إيران يهدف إلى إنهاء ما تصفه بالتهديدات التي تمثلها الجمهورية الإسلامية، إلا أن خبراء في القانون الدولي يرون أن المبررات التي قدمتها الولايات المتحدة لا تكفي لتبرير الحرب وفق قواعد القانون الدولي، في وقت تشير تقارير إلى استخدام واسع للذكاء الاصطناعي في إدارة العمليات العسكرية وتحديد الأهداف.

وشنت القوات الأميركية بالتعاون مع إسرائيل هجوماً واسعاً على إيران في 28 فبراير ، قالت واشنطن إنه يهدف إلى وقف التهديدات النووية والصاروخية الإيرانية. وأدت العمليات إلى ضرب عدد من كبار القادة الإيرانيين، فيما طالب الرئيس الأميركي دونالد ترامب طهران لاحقاً بـ“استسلام غير مشروط”.

وخلال مؤتمر صحافي في البيت الأبيض هذا الأسبوع، قالت المتحدثة باسم الرئاسة الأميركية كارولاين ليفيت إن قرار شن العملية استند إلى “تراكم تهديدات مباشرة” من جانب إيران، مضيفة أن الرئيس الأميركي اعتبر أن طهران تمثل “تهديداً وشيكاً ومباشراً”. كما اتهمت إيران برعاية “الإرهاب” وتطوير برنامج صاروخي والسعي إلى امتلاك أسلحة نووية.

لكن الأستاذة في جامعة نوتردام ماري إيلين أوكونيل قالت إن الهجوم “لا مبرر له بموجب القانون الدولي”، موضحة أن الأمم المتحدة تشترط وجود أدلة على هجوم وشيك أو جارٍ لتبرير استخدام القوة، إضافة إلى ضرورة استنفاد الوسائل السلمية مثل التفاوض والوساطة.

وأشارت إلى أن إدارة ترامب تحدثت بشكل عام عن هجمات محتملة ومنع إيران من امتلاك السلاح النووي، لكنها لم تقدم دليلاً على تهديد عسكري إيراني وشيك. وأضافت أن “شن حرب بسبب برنامج تسلح محتمل ليس مبرراً قانونياً”.

بدوره، قال برايان فينوكين، كبير مستشاري برنامج الولايات المتحدة في مجموعة الأزمات الدولية، إن المبررات التي قدمتها الإدارة الأميركية تغيرت بمرور الوقت، وهو ما يضعف مصداقيتها. وأوضح أن واشنطن ربما كانت قادرة على منع أي هجوم إسرائيلي على إيران نظراً لنفوذها العسكري الكبير على حليفتها.

وأشار فينوكين أيضاً إلى أن مطالبة ترامب طهران بـ“استسلام غير مشروط” تقوض المبررات السابقة للعمل العسكري، قائلاً إن الإدارة الأميركية لم تبذل جهداً كبيراً لإثبات أن العملية، التي أُطلق عليها اسم “إبيك فيوري”، تتوافق مع القانون الدولي.

الذكاء الإصطناعي.. أسئلة أخلاقية وقانونية

وفي الوقت نفسه، تتحدث تقارير عن اعتماد متزايد على تقنيات الذكاء الاصطناعي في إدارة العمليات العسكرية المرتبطة بالحرب، خصوصاً في تحليل المعلومات الاستخباراتية واختيار الأهداف. ويرى خبراء أن هذه التقنية قد تكون ساعدت في توجيه آلاف الضربات التي نُفذت منذ بدء الهجوم.

وقالت الباحثة لور دو روسي‑روشغوند من المعهد الفرنسي للعلاقات الدولية إن القوى العسكرية الكبرى تستثمر حالياً مبالغ ضخمة في التطبيقات العسكرية للذكاء الاصطناعي، مشيرة إلى أن هذه التقنية يمكن استخدامها في مجالات متعددة، من اللوجستيات والاستطلاع والمراقبة إلى الحرب المعلوماتية والأمن السيبراني.

ومن بين الأنظمة المستخدمة، نظام “مافن” الذكي الذي تطوره بالانتير، والذي يعتمد على خوارزميات لتحليل البيانات العسكرية وتحديد الأهداف المحتملة وترتيب أولوياتها. وذكرت صحيفة واشنطن بوست أن نموذج الذكاء الاصطناعي “كلود” الذي تطوره شركة أنثروبيك دُمج مع هذا النظام لتعزيز قدراته في الرصد والمحاكاة.

ويقول خبراء إن استخدام الذكاء الاصطناعي قد يقلص ما يسمى “سلسلة القتل”، أي الوقت الفاصل بين اكتشاف الهدف واتخاذ قرار ضربه. وأوضح برتران رونديبيار، رئيس وكالة الذكاء الاصطناعي التابعة للجيش الفرنسي، أن هذه الخوارزميات قادرة على معالجة كميات هائلة من البيانات، مثل صور الأقمار الصناعية وإشارات الرادار والموجات الكهرومغناطيسية وبيانات الطائرات المسيّرة.

غير أن توسع استخدام هذه التقنيات يثير تساؤلات قانونية وأخلاقية، خصوصاً بشأن مدى السيطرة البشرية على قرارات الاستهداف. وقال بيتر أسارو، رئيس اللجنة الدولية للحد من الأسلحة الروبوتية، إن السؤال الرئيسي في حال وقوع أخطاء هو تحديد المسؤولية: “هل يتحملها البشر أم الآلات؟”.

وأشار أسارو إلى قصف مدرسة ابتدائية للبنات في جنوب إيران، قالت السلطات إنه أسفر عن مقتل نحو 150 شخصاً، مرجحاً أن يكون مثالاً على استهداف خاطئ ربما ارتبط باستخدام تقنيات الذكاء الاصطناعي. ولم تعترف أي من الولايات المتحدة أو إسرائيل بمسؤوليتها عن الضربة، كما لم تتمكن وسائل الإعلام من الوصول إلى الموقع للتحقق من ملابسات الحادث.

ويرى خبراء أن أنظمة الذكاء الاصطناعي المستقلة بالكامل ما زالت بعيدة عن الواقع العملي. وقال رونديبيار إن القادة العسكريين يظلون في قلب عملية اتخاذ القرار، مؤكداً أن أي استخدام لهذه التقنيات يتم “خطوة بخطوة” وتحت إشراف بشري مباشر.

من جانبه، قال الباحث بنجامين جنسن من مركز الدراسات الاستراتيجية والدولية إن ما يجري حالياً يمثل مجرد بداية لدمج الذكاء الاصطناعي في العمليات العسكرية، متوقعاً أن يستغرق الأمر “جيلاً كاملاً” قبل أن تتمكن الجيوش من إعادة تصميم استراتيجياتها بالكامل للاستفادة من هذه التكنولوجيا.

المصدر