هل يستخدم الذكاء الاصطناعي في الهجمات ضد إيران؟
شهدت الحرب بين الولايات المتحدة وإسرائيل من جهة وإيران من جهة أخرى استخداماً مكثفاً لتقنيات الذكاء الاصطناعي في العمليات العسكرية منذ بدء الهجوم المشترك في 28 فبراير 2026. ونفذت القوات الأمريكية والإسرائيلية آلاف الضربات الجوية والصاروخية التي استهدفت مواقع عسكرية ونووية ومنشآت دفاعية داخل إيران مما أدى إلى خسائر بشرية ومادية كبيرة. وتشير تقارير إعلامية أمريكية وتحليلات نقلتها وكالة الأنباء الفرنسية AFP إلى أن أنظمة AI لعبت دوراً محورياً في تحليل البيانات الاستخباراتية واختيار الأهداف وترتيب أولويات الضربات بسرعة غير مسبوقة.
استخدم الجيش الأمريكي في الهجوم الأول على إيران نموذج الذكاء الاصطناعي Claude التابع لشركة Anthropic للمساعدة في توجيه العمليات وتحليل المعلومات العسكرية. واستمر الاعتماد على هذا النموذج خلال العمليات اللاحقة رغم أن الرئيس الأمريكي Donald Trump أصدر أمراً رئاسياً في 27 فبراير يقضي بحظر استخدام هذه التكنولوجيا داخل الحكومة الفيدرالية مع فترة انتقالية مدتها ستة أشهر لإنهاء الاعتماد عليها. وأدى ذلك إلى خلاف حاد بين الحكومة الأمريكية وشركة Anthropic التي حاولت فرض شروط صارمة تمنع استخدام تقنياتها في المراقبة الجماعية أو في أنظمة الأسلحة ذاتية التشغيل بالكامل دون تدخل بشري.
ردت الحكومة الأمريكية بالإعلان أن وزارة الدفاع Pentagon تعمل ضمن إطار قانوني وأن الشركات المتعاقدة لا يحق لها فرض شروط على استخدام منتجاتها بعد بيعها للحكومة. وتصاعد الخلاف لاحقاً عندما صنفت الولايات المتحدة شركة Anthropic رسمياً ضمن قائمة المخاطر المرتبطة بالأمن القومي وسلسلة التوريد وهو تصنيف يمنع المقاولين الحكوميين من التعامل مع تقنيات الشركة في المشاريع الدفاعية.
أكد خبراء أن الولايات المتحدة وإسرائيل لم تقتصرا على استخدام الذكاء الاصطناعي في الحرب الإيرانية فقط بل استخدمتا تقنيات مشابهة في عمليات عسكرية سابقة. ففي الحرب الإسرائيلية على غزة استخدم الجيش الإسرائيلي أنظمة ذكاء اصطناعي مثل Habsora المعروف باسم “The Gospel” ونظام Lavender لتوليد قوائم أهداف تلقائياً اعتماداً على تحليل كميات ضخمة من البيانات الاستخباراتية مما يسمح بإنتاج عدد كبير من الأهداف في وقت قصير. كما استخدم الجيش الأمريكي نموذج Claude نفسه في العملية التي أدت إلى اعتقال الرئيس الفنزويلي السابق Nicolás Maduro في كاراكاس مطلع عام 2026 عبر شراكة مع شركة Palantir لتحليل البيانات الاستخباراتية وتوجيه القوات.
رجح الخبير في الذكاء الاصطناعي والروبوتات Peter Asaro رئيس اللجنة الدولية للتحكم في الأسلحة الروبوتية في تصريحات لوكالة الأنباء الفرنسية AFP أن الولايات المتحدة وإسرائيل استخدمتا الذكاء الاصطناعي على نطاق واسع في تحديد الأهداف داخل إيران. وأوضح أن قصر المرحلة التخطيطية للهجمات وعدد الأهداف الكبير يشيران بوضوح إلى دور الأنظمة الآلية في تسريع عملية اتخاذ القرار العسكري.
يشرح الخبراء أن الدور الرئيسي لهذه الأنظمة يتمثل في تسريع ما يعرف باسم Kill Chain وهي سلسلة العمليات بين اكتشاف الهدف وتحليل المعلومات واتخاذ قرار الضربة وتنفيذ الهجوم. ويمكن للذكاء الاصطناعي تقليص هذه السلسلة من ساعات أو أيام إلى دقائق معدودة وهو ما يمنح القوات المهاجمة قدرة كبيرة على تنفيذ ضربات متزامنة وسريعة. لكن هذا التسريع يثير مخاوف كبيرة لأن تقليص زمن القرار قد يقلل من مستوى التدقيق البشري ويزيد احتمالات الخطأ.
برزت هذه المخاوف بشكل واضح بعد حادثة وقعت في مدينة ميناب جنوب إيران يوم 28 فبراير حيث أصابت ضربة صاروخية مدرسة “الشجرة الطيبة” الابتدائية للبنات. وأسفر الهجوم وفق التقارير الإيرانية الرسمية عن مقتل ما بين 150 و165 طالبة ومعلمة وإصابة عشرات آخرين. وحملت إيران الولايات المتحدة وإسرائيل المسؤولية الكاملة عن الهجوم بينما لم يؤكد أي منهما تنفيذ الضربة بشكل صريح. وأعلنت وزارة الدفاع الأمريكية أنها فتحت تحقيقاً لمعرفة ما إذا كان الحادث نتيجة خطأ بشري أو خلل في خوارزميات الذكاء الاصطناعي المستخدمة في تحديد الأهداف.
تمكنت وكالة الأنباء الفرنسية AFP من تحديد الموقع الجغرافي لمقطع الفيديو الذي وثق الضربة وأكدت أن المبنى يقع بالقرب من موقعين يسيطر عليهما الحرس الثوري الإيراني. لكن التحقيق أشار إلى أن المدرسة كانت منفصلة بوضوح عن الموقع العسكري منذ سنوات طويلة وهو ما أثار تساؤلات حول دقة المعلومات الاستخباراتية المستخدمة في عملية الاستهداف.
أجرت وحدة التحقيقات الرقمية في قناة الجزيرة تحقيقاً إضافياً اعتمد على تحليل صور الأقمار الصناعية الممتدة لعشر سنوات إلى جانب مراجعة مقاطع الفيديو والأخبار السابقة وتصريحات مصادر إيرانية رسمية. وكشفت نتائج التحقيق أن المدرسة كانت منفصلة عن الموقع العسكري المجاور منذ ما لا يقل عن عقد كامل وأن نمط الضربة يثير تساؤلات جوهرية حول سبب استهداف الموقع.
ووصفت الجزيرة الحادث بأنه أحد أكثر الهجمات دموية في الحرب الحالية ودعت إلى إجراء تحقيق دولي مستقل لتحديد المسؤوليات.
يؤكد خبراء القانون الدولي أن استخدام الذكاء الاصطناعي لتقصير Kill Chain يمنح الجيوش تفوقاً عسكرياً واضحاً لكنه يثير في الوقت نفسه مخاوف كبيرة بشأن فقدان ما يسمى بالسيطرة البشرية المعنوية على القرارات القتالية. ومع تصاعد الخسائر المدنية في الحرب على إيران تتزايد الدعوات الدولية لوضع قواعد وتنظيمات دولية تحدد حدود استخدام تقنيات AI في النزاعات المسلحة وتضمن بقاء القرار النهائي باستخدام القوة بيد الإنسان وليس الخوارزميات.









