في بحث تم نشره مؤخراً على مجلة Nature بدأت تظهر مشكلة خطيرة بخصوص نماذج الذكاء الاصطناعي. الدراسة توضح أن قدرة بعض النماذج على تمييز المعلومات المغلوطة التي يطرحها المستخدمين عليها بدأت تتدهور بشكل واضح، حيث تراجعت دقة GPT 4o مثلاً من 98.2% إلى 64.4% فقط. هذا التراجع كبير جداً مقارنة بالتطور الذي من المفترض أن الذكاء الاصطناعي يشهده، ويعني أن النموذج أصبح أكثر قابلية لتصديق وتكرار معلومات خاطئة دون أن ينتبه.
فكرة أن الذكاء الاصطناعي كان يقدم دائماً كأداة قادرة على كشف الأخطاء، أو كمرجع محايد ومبني على المعرفة، بدأت تهتز مع ظهور هذه النتائج. لأن إذا كانت هذه النماذج نفسها لم تعد تميز بين الخطأ والصحيح بشكل كافٍ، فهذا يغير شكل الاعتماد عليها خصوصاً في أماكن حساسة مثل التعليم، البحث، أو حتى الصحافة الرقمية. هنا تصبح العلاقة بين المستخدم والنموذج أكثر هشاشة وتحتاج لوعي أكبر بدلاً من الاعتماد الكلي والثقة التلقائية.
التعليقات