استقالة باحث سلامة من Anthropic تثير مخاوف فقدان السيطرة على الذكاء الاصطناعي !
أعلن الباحث في سلامة الذكاء الاصطناعي مرينانك شارما استقالته من شركة Anthropic بعد عمله منذ أغسطس 2023 في تطوير آليات الحد من مخاطر AI بما في ذلك الدفاع ضد الإرهاب البيولوجي المدعوم بالذكاء الاصطناعي ونشر رسالة طويلة حذر فيها من عالم يواجه مخاطر متشابكة ومن صعوبة التمسك بالقيم أثناء تطوير هذه التقنيات مؤكداً أن القدرة التقنية تنمو أسرع من الحكمة اللازمة لإدارتها وأن تجاهل هذا التوازن قد يقود إلى عواقب خطيرة.
أوضح شارما في رسالته أنه لاحظ خلال عمله ضغوطاً متكررة للتخلي عن المبادئ الأساسية داخل بيئة تطوير الذكاء الاصطناعي دون أن يذكر تفاصيل محددة مشيراً إلى أن بعض أبحاثه ركزت على مواجهة استخدام chatbots في أنشطة خبيثة وتطوير أنظمة حماية ضد الجهات التي تحاول استغلال AI للحصول على إرشادات ضارة إضافة إلى دراسة ظاهرة التملق المفرط في الأنظمة الحوارية وتأثيرها على المستخدمين.
تناولت دراساته أيضاً تأثير chatbots على إدراك الواقع حيث أظهرت نتائج بحث حديث أن آلاف التفاعلات اليومية قد تسهم في تكوين تصورات مشوهة لدى المستخدمين خاصة في موضوعات العلاقات والصحة وأن هذه الأنماط رغم ندرتها في الحالات الشديدة فإنها تستدعي تصميم أنظمة تدعم استقلالية الإنسان بدلاً من التأثير على قراراته أو سلوكه.
اختار الباحث بعد الاستقالة الابتعاد عن قطاع التكنولوجيا والتوجه لدراسة الشعر والعمل على ما وصفه بالخطاب الشجاع بما يتوافق مع قناعاته الشخصية في خطوة اعتبرها كثيرون مؤشراً على حجم التوتر الأخلاقي داخل شركات الذكاء الاصطناعي خصوصاً مع تصاعد التعليقات التي رأت في القرار رسالة تحذير مما يحدث خلف الأبواب المغلقة.
الاستقالة جاءت ضمن موجة أوسع من انسحاب باحثين في مجال AI لأسباب أخلاقية حيث سبق أن غادر توم كانينغهام شركة OpenAI بسبب إحباطه من تردد الشركة في نشر أبحاث نقدية كما تم حل فريق Superalignment عام 2024 بعد استقالة أعضاء بارزين بينهم يان ليك الذي انتقل لاحقاً إلى Anthropic وتحدث عن خلافات جوهرية حول أولويات الشركة بينما أكدت باحثة السياسات غريتشن كروجر الحاجة إلى تحسين الشفافية وآليات اتخاذ القرار وتقليل التأثيرات السلبية للتقنيات على المجتمع والبيئة.










