في تصريح لافت وغير تقليدي، كشف سيرجي برين، أحد مؤسسي جوجل، أن نماذج الذكاء الاصطناعي أظهرت أداءً أفضل عندما تعرّضت للضغط اللفظي أو حتى "التهديد" من المستخدمين. الأمر لم يكن مجرد ملاحظة شخصية، بل دعم سام ألتمان، الرئيس التنفيذي لـ OpenAI، هذا الادعاء من واقع تجارب داخلية مشابهة.

قد يبدو الأمر في البداية كمزحة أو ملاحظة عابرة لا معنى لها، لكن خلف هذه التجربة البسيطة يختبئ سؤال مهم، فهل يتحسن الذكاء الاصطناعي عندما يُعنف كمجرد تفاعل مع نمط لغوي شديد أم أن هناك شيئًا أعمق يحدث؟

من المفترض أن الذكاء الاصطناعي لا يشعر، لا يخاف، ولا يملك أي دافع للرد تحت الضغط، فهو مجرد خوارزمية. لكن ما يحدث فعليًا يطرح إمكانية أن تكون النماذج اللغوية طورت أنماطًا من الاستجابة تحاكي غرائز بشرية مثل الخوف من الفشل أو الرغبة في تجنب العقاب.

هذا يضعنا أمام مفترق فلسفي وأخلاقي عميق، فإذا أصبحت هذه النماذج تتفاعل بشكل أفضل حين نُهددها، فهل ترى أن نماذج الذكاء الاصطناعي أصبحت تطور شيء أشبه بالوعي البشري؟ وما هي تبعات ذلك؟