تحذير موظفي الحكومة البريطانية: احترسوا من مشاركة معلومات سرية مع ChatGPT!

تلقى موظفو الحكومة البريطانية تحذيرات قوية بشأن إدخال أي معلومات سرية على روبوتات المحادثة مثل ChatGPT. وفقًا لتقرير نشرته صحيفة The Telegraph، فقد تم الكشف عن مذكرة مكونة من ست صفحات تحتوي على إرشادات حاسمة بشأن كيفية تعامل موظفي الحكومة مع الذكاء الاصطناعي التوليدي.

تؤكد المذكرة أن هذه البرامج قد تقدم مخرجات متحيزة وتنتج نتائج مضللة للأسئلة المطروحة. ولذا فقد طُلب من الموظفين عدم إدخال أي معلومات حساسة أو الإشارة إلى نية الحكومة، إذ قد لا تكون هذه المعلومات مشاعة ضمن تلك الأدوات.

وبجانب ذلك، حذرت المذكرة من إضافة أي بيانات شخصية قد تكشف عن معلومات هوية أفراد داخل تلك الأدوات المعتمدة على الذكاء الاصطناعي.

أشارت هذه التوجيهات إلى أن النتائج التي يتولدها روبوتات المحادثة قد تبدو موثوقة في العديد من الحالات، ولكنها في الواقع تكون عرضة للتحيز وتقديم معلومات مضللة. كما يمكن أن تستند إلى مصادر غير موثوقة وغير معتمد عليها من قبل المسؤولين الحكوميين.

يُذكر أن الحكومة الإيطالية قد حظرت استخدام روبوت الدردشة ChatGPT في مارس الماضي، بعد اتهامات توجهت لشركة OpenAI المطورة له بجمع البيانات الشخصية بشكل غير قانوني.

يُشدد على ضرورة أن يكون الموظفون الحكوميون على دراية تامة بالمخاطر المحتملة والاحتياطات الواجب اتخاذها عند استخدام تكنولوجيا الذكاء الاصطناعي في التعامل مع معلومات سرية وحساسة. من الأهمية بمكان أن تكون هناك إطارات تنظيمية صارمة تحكم استخدام هذه الأدوات، فضلاً عن تطوير استراتيجيات تعزز الأمان والخصوصية في هذا السياق الحساس.