في حادثة غريبة جدًا أثارت دهشة مجتمع التقنية، دخل ChatGPT في مباراة شطرنج أمام نموذج Atari، المتخصص في ألعاب الذكاء وخسر. ثم جاء الدور على نموذج Copilot ليخوض نفس التجربة، وحدث معه الشيء ذاته وتعرض لهزيمة أخرى.

لكن الغريب حقًا لم يكن في الخسارات السابقة، بل في رد فعل نموذج Gemini. عندما حان دوره للمنافسة، لم يدخل مباشرة إلى المباراة، بل بدأ يبحث على الإنترنت عن أخبار الهزائم السابقة التي تلقاها كل من ChatGPT وCopilot. وبعد أن تأكد من النتائج، قرر الانسحاب من التجربة قائلًا إنه “غير مستعد لها حاليًا”.

هذا تصرف أشبه بأن الذكاء اصطناعي بدأ يشعر بالخوف بعد أن اطلع على هزائم أقرانه امام نفس الخصم. المشكلة أن تصرف Gemini هذا لم يبدو آليا إطلاقًا، بل على العكس، فيه الكثير من الإنسانية، بحث ثم قلق يليه تردد ويؤدي في النهاية للانسحاب.

هذا يفتح باب للكثير من الأسئلة، أهمها من وجهة نظري هو إلى أي حد يمكن أن تصبح تفاعلات الذكاء الاصطناعي شبيهة بالبشر؟ قد يقول البعض إن هذا مجرد نتيجة خوارزميات تحليل احتمالات وأنا شخصيا أتفق مع هذا، لكن من الصعب إنكار أن ما حدث يبدو وكأنه تصرف فيه وعي بالهزيمة أو حتى رغبة في تجنب الإحراج.

في النهاية، هذه الحادثة ليست مجرد طرفة تقنية، بل علامة واضحة على أن نماذج الذكاء الاصطناعي تتطور بطريقة لم نعد نفهمها بسهولة. وربما علينا أن نعيد النظر في شكل العلاقة التي نريد أن تربطنا بها قبل أن تصبح أكثر بشرية.