أدّى ظهور روبوتات الدّردشة التي تعمل بالذّكاء الاصطناعي إلى ظهور تحدٍّ جديد في مجال نشر المعلومات، فهناك قلقٌ متزايد بشأن قدرتها على نشر معلومات خاطئة أو مضلّلة وهذا ينطبق بشكل خاص على المحادثات بواسطة الذّكاء الإصطناعي، والذي تمّ تصميمه لتقليد المحادثات الشّبيهة بالإنسان وقد لا يكون دائمًا مزوّدًا بالقدرة على التّمييز بين الحقيقة والباطل!

المعلومات المضلّلة ونشر الأخبار الكاذبة لها دور كبير في التّأثير على الرأي العام، فعلى سبيل المثال لو عدنا بالزّمن للوراء إلى جائحة كوفيد19، كانت هنالك حالاتٌ عديدة أين كانت الرّوبوتات تنشر معلوماتٍ خاطئة حول الفيروس، من إدّعاءات العلاج إلى نظريات المؤامرة وغيرها، يمكن أن يتسبب هذا في ضرر كبير، لا سيما حينما يتمّ نشر هاته الأخبار على نطاقٍ واسعٍ جدّا.

للتخفيف من مخاطر نشر الرّوبوتات للمعلومات المضلّلة، من المهمّ إتباع نهج إحترازي ويمكن أن يشمل ذلك تنفيذ تدابير تساعد على ضمان دقّة المعلومات التي يتمّ تبادلها فحينما يتمُّ استخدام خوارزميات التحقق من الحقائق مثلًا، ووضع إرشادات لنوع المعلومات المناسبة التي يمكن للرّوبوتات مشاركتها وتناقُلها، ومراقبة محادثاتهم بانتظام لتحديد ومعالجة أي حالات من المعلومات الخاطئة والملفّقة.

في الحالات التي يتبين فيها أن الروبوتات تنشر معلومات خاطئة، قد يكون من الضروري إتخاذ إجراءات أكثر صرامة، مثل تعطيلها أو إزالتها من المنصة أو حتّى التخلّص منها.

في نهاية المطاف، تتطلّب مواجهة التحدّيات التي تفرضها الرّوبوتات والمعلومات المضلّلة تكاثُف الجميع للحدّ من إنتشار الأخبار المغلوطة ووضع حدّ لتداوُلها، وأنت ما رأيك هل يمكن للرّبوتات أن تختلق الأكاذيب وتلفّق المعلومات؟ وهل نصنّف ذلك على أنّه خطأ تقني أم أنّه تطرّف للآلات؟