لكي يقوم أي نموذج ذكاء اصطناعي بالمهمة التي صمم لعملها، يجب أولاً أن يتم تدريبه على كميات ضخمة من البيانات التي تجعله قادرا على اتخاذ مسارات محددة. وبناء على ذلك، فإن أي تحيز أو ظلم في تلك البيانات سينعكس بدوره على قرارات الذكاء الاصطناعي فيما بعد وذلك هو ما يعرف بتحيز الذكاء الاصطناعي أو الAI Bias.

ومن أشهر أمثلة على ذلك هو خوارزمية COMPAS للعدالة الجنائية في الولايات المتحدة للتنبؤ باحتمالية عودة المتهم إلى الجريمة، حيث كشفت دراسة أجرتها ProPublica أن الخوارزمية كانت متحيزة ضد الأمريكيين من أصول إفريقية، حيث صنفتهم بشكل غير صحيح على أنهم خطرون بشكل أعلى مقارنةً بالبيض.

وبالرغم من المحاولات المضنية للحد من مثل تلك الحوادث، إلا أنه لازالت شخصية وثقافة المبرمجين لنماذج الذكاء الاصطناعي تفرض سيطرتها بشكل أو بآخر على قرارات نماذج الذكاء الاصطناعي.

من وجهة نظرك، هل تتوقع أنه من الممكن أن نصل للشفافية التامة في برمجة الذكاء الاصطناعي، أم أننا مازال أمامنا شوط طويل لنقطعه؟