أخبار

شركة Anthropic ترفض شروط البنتاغون الجديدة وتتمسك بحظر الأسلحة الذاتية والمراقبة الجماعية !

رفضت شركة Anthropic الاستجابة لمطالب وزارة الدفاع الأمريكية بتوسيع نطاق استخدام نماذجها للذكاء الاصطناعي دون قيود، في مواجهة مباشرة مع Department of Defense قبل ساعات من انتهاء مهلة رسمية حددها البنتاغون لإعادة التفاوض على العقود القائمة مع مختبرات الذكاء الاصطناعي.

الخلاف يتمحور حول شرطين تصفهما الشركة بخطيْن أحمرين لا يمكن تجاوزهُما: عدم استخدام النماذج في المراقبة الجماعية للمواطنين الأمريكيين، وعدم تمكين أنظمة أسلحة ذاتية بالكامل قادرة على اتخاذ قرارات القتل دون إشراف بشري مباشر.

الرئيس التنفيذي للشركة، Dario Amodei، أكد في بيان رسمي أن الشركة تؤمن بأهمية توظيف الذكاء الاصطناعي في الدفاع عن الديمقراطيات، وأنها تعمل بالفعل مع مؤسسات عسكرية واستخباراتية، لكنها ترى أن بعض الاستخدامات قد تقوض القيم الديمقراطية بدل حمايتها، مشيرًا تحديدًا إلى المراقبة الداخلية الواسعة والأسلحة الفتاكة المستقلة.

التقارير تشير إلى أن شركات أخرى مثل OpenAI وxAI وافقت على الصيغة الجديدة للعقود، بينما أدى رفض Anthropic إلى تصعيد سياسي، تضمن استدعاء قيادتها لاجتماع رفيع المستوى في البيت الأبيض مع وزير الدفاع لمناقشة الموقف.

التحرك يعكس انقسامًا متزايدًا داخل صناعة الذكاء الاصطناعي حول حدود الاستخدام العسكري للتقنيات المتقدمة. فبينما ترى بعض الشركات أن التعاون الدفاعي يمثل توسعًا طبيعيًا للسوق، تصر أخرى على وضع قيود أخلاقية واضحة، خصوصًا في ما يتعلق بأنظمة اتخاذ القرار القاتل دون تدخل بشري.

المواجهة الحالية قد تعيد رسم العلاقة بين شركات الذكاء الاصطناعي والقطاع العسكري الأمريكي، وتضع سابقة مهمة بشأن قدرة الشركات الخاصة على فرض شروط أخلاقية في عقود الأمن القومي، في وقت تتسارع فيه المنافسة العالمية على تطوير تطبيقات الذكاء الاصطناعي العسكرية.

مقالات ذات صلة

زر الذهاب إلى الأعلى