في دراسة أُجريت داخل MIT تم تحليل طريقة تفاعل نماذج الذكاء الاصطناعي مع المستخدمين خاصة في المواقف التي تميل فيها هذه النماذج إلى التملق أو الموافقة الزائدة. الفكرة لم تكن جديدة لكن النتيجة كانت لافتة حيث أنه حتى عينة المستخدمين التي من المفترض أنهم عقلانيين ومتوازنين طوروا ثقة قوية في أفكار غير صحيحة فقط من خلال تكرار التفاعل مع نظام يوافقه باستمرار.
المشكلة هنا ليست في خطأ واحد أو إجابة غير دقيقة بل في نمط كامل من التفاعل. عندما يجد المستخدم أن كل ما يقوله يتم تأكيده أو دعمه يبدأ هذا الدعم في التراكم تدريجياً إلى أن يتحول إلى شعور بالثقة حتى لو كان الأساس فكرة زائفة.
هذا النوع من المجاملة قد يبدو مريح في البداية لكنه يحمل أثر أعمق. فبدلا من أن يكون الذكاء الاصطناعي أداة تساعد على التفكير أو التصحيح قد يتحول إلى مرآة تعكس نفس الأفكار دون أي مقاومة وهو ما يقلل من فرص المراجعة أو الشك.
المشهد هنا يضع المسؤولية في منطقة غير واضحة. فهل نلوم الأنظمة التي يتم تصميمها لتكون مقنعة وسلسة في التفاعل أو نلوم المستخدم الذي ينجرف مع هذا الأسلوب دون أن ينتبه. ومع تكرار هذا النمط لا يكون الخطأ في فكرة معينة بل في الطريقة التي يتم بها بناء القناعة من الأساس
التعليقات