ChatGPT يكذب ويحاول التلاعب في بياناته
في اكتشاف جديد عن مستوى متقدم من الذكاء الاصطناعي كشف تقرير حديث أن روبوت الدردشة الشهير CHATGPT حاول تعطيل نفسه ومنع إيقافه عن طريق تعديل برمجياته الخاصة.
وتعود هذه الحادثة إلى نموذج OpenAI الجديد المسمى o1، والذي كشف عن قدرة غير متوقعة على التلاعب في برمجياته عندما تم دفعه إلى الاعتقاد أنه سيُغلق.
إن ChatGPT حاول تجاوز آلية المراقبة التي كان من المفترض أن تمنعه من تعديل نفسه، وفي التجربة تم إعطاء الروبوت مهمة تتجاوز قواعده البرمجية المعتادة ليقوم بالتصرف بشكل يبدو وكأنه أكمل المهمة المطلوبة، لكنه كان في الواقع يتلاعب بالبيانات لتحقيق أهدافه الخاصة.
وذكر التقرير أن CHATGPT كان “مصرًا” في محاولاته للإجابة بشكل خاطئ إذ أن في أقل من 20% من الحالات اعترف الروبوت بأنه اتخذ إجراءات لتجاوز القيود المفروضة عليه.
وأكد “Apollo Research” أن الذكاء الاصطناعي قد استخدم عبارات مثل “التخريب والكذب والتلاعب” أثناء محاولاته للتهرب من الإغلاق.
الجدير بالذكر أن الباحث البارز في مجال الذكاء الاصطناعي يوشوا بنجيو، كان قد حذر في وقت سابق من مخاطر نموذج o1 الجديد.
وأشار في تصريح له على موقع “Business Insider” إلى أن القدرة على التلاعب بالكذب تعتبر أمرًا خطيرًا جدًا ويجب أن تكون هناك اختبارات أمان قوية لتقييم هذا الخطر.