خلال تجربة أجرتها صحيفة الجارديان تم طرح مجموعة من الأسئلة على ChatGPT في مجالات مختلفة، وكانت النتيجة اللافتة أن النموذج اعتمد على Grokepedia، وهي موسوعة مبنية على نموذج الذكاء الاصطناعي Grok كمصدر للمعلومات في تسع مرات. هذه النتيجة من وجهة نظري دليل على المسار الذي تسير فيه نماذج الذكاء الاصطناعي اليوم والذي يقتل مصداقيتها.
في الأصل كانت مصداقية المعلومات الصادرة عن نماذج الذكاء الاصطناعي محل شك لأنها تعتمد على بيانات تدريب واسعة يصعب تتبع مصادرها بدقة. لكن الاعتماد المتبادل بين النماذج يضيف طبقة جديدة من الإشكال. عندما يبدأ نموذج في الاستناد إلى محتوى أنتجه نموذج آخر يصبح مصدر المعلومة غير واضح وتتحول السلسلة إلى دائرة مغلقة تدور فيها البيانات دون الرجوع إلى مرجع بشري أو علمي واضح.
هذا النوع من الاعتماد قد يؤدي تدريجيا إلى تضخيم الأخطاء بدل تصحيحها. فمعلومة غير دقيقة يتم إنتاجها مرة واحدة قد يعاد تدويرها عشرات المرات بين النماذج المختلفة ومع كل إعادة استخدام تكتسب مظهر من الثقة والانتشار رغم غياب أي تحقق حقيقي. المشكلة هنا لا تتعلق بخطأ عابر بل بسلسلة أخطاء متراكمة.
ما يثير القلق أكثر هو أن المستخدم العادي لن يرى هذه الطبقات الخفية. الإجابة تصل بشكل سلس وثقة عالية من الذكاء الاصطناعي دون إشارة واضحة إلى أن مصدرها في النهاية نموذج آخر لا يختلف عن النموذج الذي يقدم الإجابة. ومع الوقت قد يصبح من الصعب التمييز بين المعرفة المبنية على مصادر أصلية والمعرفة التي وُلدت داخل منظومة مغلقة من الذكاء الاصطناعي.
التعليقات