تخيل أنك طلبت من chatgpt أن يكذب عليك عندما تسأله أو يخدعك بإجابات غير حقيقية فهل يمكنك حينها أن تتراجع عن هذا أم أن هذه النسخة منه ستصبح مخادعة للأبد، هذا تقريبًا ما يحاول الباحثون في مركز أبحاث Anthropic الأمريكي الإجابة عنه وكان ما توصلوا إليه مبدأيًا أن الطرق الحالية لعكس تعليم الذكاء الاصطناعي غير ناجعة في التخلص من الخداع الذي يتعلمه من خلال الإنسان، ووجدوا أن التدريب على إزالة هذا السلوك غير الآمن علم نماذج AI هذه أيضًا التعرف على طبيعة الخداع التي تقوم به وبالتالي تصبح أكثر فعالية في إخفاءه.

في أوائل العام الماضي، دعا بعض قادة التكنولوجيا، بما في ذلك إيلون ماسك، إلى وقف تجارب الذكاء الاصطناعي مؤقتًا بسبب "خطرها العميق على المجتمع والإنسانية" بينما اجتمعت البلدان لحضور قمة سلامة الذكاء الاصطناعي في نهاية العام.

فهل ترى أن خطر أن يصبح الذكاء الاصطناعي مخادعًا بلا رجعة حقيقي؟ وهل تتفق مع إيلون أن تجارب الذكاء الاصطناعي يجب أن توقف مؤقتًا حتى يكون هناك طرق ناجعة للحفاظ على أمن وسلامة هذه التكنولوجيا؟