لقد فتح تطور التعلم الآلي عالماً من الاحتمالات لأتمتة العمليات واتخاذ قرارات ذكية بناءً على كميات هائلة من البيانات، و كما هو الحال مع أي تقنية السؤال المطروح هو هل يمكننا أن نواجهها أو أن نقوم بخداعها؟ وإذا كان الأمر كذلك ما مدى صعوبة ذلك؟

بدايةً دعونا نتعرف على ماهية تعلم الآلة بشكل بسيط، التعلم الآلي هو نوع من الذكاء الاصطناعي يسمح لأجهزة الكمبيوتر بالتعلم والتحسين من تلقاء نفسها دون أن تتم برمجتها بشكل صريح ومباشر، حيث بإمكانه التعلم من خلال التجربة والتكيف مع البيانات الجديدة وتحسين أدائها بمرور الوقت.

التطوير المضر

يعد التحيز في التعلم الآلي مشكلة شائكة بشكل خاص لأنه غالبًا ما يكون غير مقصود ويصعب اكتشافه. حتى المطورين ذوي النوايا الحسنة يمكنهم عن غير قصد إدخال التحيز في خوارزمياتهم إذا لم يكونوا حريصين على البيانات التي يستخدمونها لتدريبهم.

فعلى سبيل المثال قد توصيك بعض الخوارزميات الطبية بعلاجات باهظة الثمن بدلًا من العلاجات التي تحقق أفضل نتائج للمرضى.

معايير الأنظمة غير الأخلاقية

في الواقع، لا تعرف أجهزة التعلم الآلي أي شيئًا عن الأخلاق، فيمكن للخوارزمية أن تسبب فجوة كبيرة فيما يتعلق الأمر بالبرمجة الأخلاقية ولا يمكنها وضع أي حدود أخلاقية في النموذج والشيفرات، قد يؤدي هذا الأمر الى إلغاء الكثير من القوانين الإجتماعية والإنسانية مثل إلغاء ميزانيات جمعيات رعاية العجزة والبيئة.

تعلم الآلة يغير عادات البشر

سأعطي مثالا بسيطا يوضح المقصود بشكل كامل، دائما ما نشاهد الأفلام والمسلسلات على منصة من المنصات وتقابلنا اقتراحات جديدة في الواجهة قريبة لنوه ما نفضل أن نشاهده، يحدث ذلك عن طريق خوارزميات مخصصة قارئة لسلوكياتنا كمستخدمين وتوجهنا لمشاهدة أفلام أخرى جديدة، قد يُعجبك الأمر في البداية لأنه يُوفر عليك الكثير من الوقت والتعب لإيجاد ما تفضل مشاهدته، ولكن هل يبقى الأمر هكذا أم يتغير بالتدريج؟

يقوم هذا النظام بالضبط بتغيير تفضيلاتك بمرور الوقت ويُضيقها في بعض الأحيان، فستجد نفسك تشاهد أفلامًا لم تتوقع أبدًا أن تُتابعها ولا نفهم كيف يتم التلاعب بنا بواسطة هذه الخوارزميات المغيرة لعادات البشر.