أخبار

شركة OpenAI تكشف تفاصيل اتفاقها مع البنتاغون وتؤكد حظر المراقبة الجماعية والأسلحة الذاتية !

كشفت OpenAI عن تفاصيل موسعة لاتفاقها مع وزارة الدفاع الأمريكية لنشر نماذجها داخل بيئات مصنفة، بعد انهيار مفاوضات بين البنتاغون وشركة Anthropic وتصنيف الأخيرة كمخاطر في سلاسل التوريد. الرئيس التنفيذي سام ألتمان أقر بأن الصفقة “متسرعة” وأن صورتها العامة أثارت جدلاً، لكنه بررها بأنها محاولة لاحتواء التصعيد بين الحكومة وقطاع الذكاء الاصطناعي.

الاتفاق يسمح بنشر نماذج OpenAI في بيئات سرية عبر بنية سحابية (Cloud API) فقط، مع الإبقاء على سيطرة الشركة الكاملة على طبقة الأمان (Safety Stack). وتشمل الضوابط: منع الاستخدام في المراقبة الجماعية داخل الولايات المتحدة، وحظر دمج النماذج في أنظمة أسلحة ذاتية التشغيل بالكامل، ومنع اتخاذ قرارات آلية عالية المخاطر مثل أنظمة “التقييم الاجتماعي”. تؤكد OpenAI أن النشر يتم بإشراف موظفين مخوّلين، وبعقود تتضمن بنودًا حماية إضافية، إلى جانب الالتزام بالقوانين الأمريكية ذات الصلة.

تقول الشركة إن هندسة النشر هي عنصر الحماية الأساسي: عبر حصر الوصول في واجهات سحابية مُدارة، لا يمكن دمج النماذج مباشرة في أجهزة استشعار أو منصات تشغيل ميدانية. كما تشير إلى طبقات تحكم في الوصول، سجلات تدقيق، ومراقبة استخدام آنية لاكتشاف الانحرافات.

الجدل تركز حول صياغات قانونية تشير إلى الامتثال لأطر تنظيمية مثل الأوامر التنفيذية ذات الصلة بالاستخبارات، حيث اعتبر منتقدون أن ذلك قد يفتح بابًا لتفسيرات واسعة تتعلق بجمع البيانات. OpenAI ردت بأن القيود التقنية والحوكمة التشغيلية أهم من نصوص الاستخدام وحدها، وأن أي نشر يخضع لمراجعات أمنية متعددة.

سياسيًا وصناعيًا، تعكس الصفقة سباقًا متصاعدًا على عقود الذكاء الاصطناعي الحكومية الحساسة، وتضع نموذجًا لكيفية موازنة الشركات بين فرص الأعمال والالتزامات الأخلاقية. تأثيرها المحتمل يمتد إلى معايير السوق: إذا نجحت آلية “النشر المقيد سحابيًا” في تلبية متطلبات الأمن دون تجاوز الخطوط الحمراء، فقد تصبح إطارًا مرجعيًا لعقود مماثلة مستقبلًا.

مقالات ذات صلة

زر الذهاب إلى الأعلى