روبوت مايكروسوفت تفوه بكلمات عنصرية ضد اليهود
تذكرني قصة Tay بقصة القوانين الثلاثة للروبوتات والمذكورة في فلم IRobot:
يجب على الروبوت ألّا يؤذي بشريًا.
يجب على الروبوت أن يطيع أوامر البشر كاملة إلا إن خالف القانون الأول.
يجب على الروبوت أن يتأكد من بقاءه وأن يعمل على عدم تدميره ما لم يخالف ذلك القانون الأول و\أو الثاني.
القوانين الثلاثة كما تبدو واضحة ويبدو أن لا روبوت سيخرج عن السيطرة في العالم، لكن الواقع هو أن ذلك قد يحدث، كما عرض في الفيلم ولو بنسبة ضئيلة، كما أن بعض التجاوزات الروبوتية تكون متبعة للقوانين الثلاثة لكنها تعارض إنسانيتنا، ففي الفلم ينقذ الروبوت شخصًا عاطلًأ باطلًا كبير السن قد اقترب من الموت أثناء غرقه، بينما يترك طفلة صغيرة ذات مستقبل كبير بجانب هذا الشخص فقط لأن نسبة نجاتها كما حسب لن تكون كبيرة.
ماذا لو برمجنا سيارة آلية القيادة، وأثناء قيادتها في الطريق السريع مشت خلف شاحنة تحمل أسياخًا من الحديد، وقعت أسياخ الحديد ولديها أجزاء من الثانية كي تفكر في إحدى الخيارات التالية:
تكمل الطريق وتضرب بالأسياخ فيموت السائق.
تنحرف إلى اليمين، أين ستضرب بقائد دراجة نارية متهور، لا يلبس الخوذة وعلى الأغلب قد يموت.
تنحرف إلى اليسار، أين ستضرب بقائد دراجة نارية حذر، يلبس خوذة وعلى الأغلب سينجو بجروح قليلة.
قد يبدو أن الأفضل للجميع هو الانحراف إلى اليسار، بحيث لا تنجم الكثير من الأضرار على أي شخص، لكن ما ذنب هذا الذي على اليسار وقد لبس خوذته واتبع قواعد السلامة؟ أليس حريًّا بالمتهور أن يضرب عقابًا له؟ وإن اتبعنا الرأي السابق، ألن يترك الناس السلامة ويتبعوا التهور كي ينجوا؟
مستقبل هذا العالم سيُحدد بما يريده المبرمجون والحكومات.
لذلك أعتقد، وصحح لي يا @mustafaihssan إن كنت مخطئًا، بأن الروبوت في بيئة سليمة سيعمل بسلام وعلى الأغلب لن نجد نسبة خطأ، لكنه في التعامل البشري المتناقض غير الخاضع للقوانين، سيخرج عن السيطرة على الأغلب، وقد يستنتج منطقًا من المجتمع، فحين يرى على الأغلب الرشوة والفساد يعمل هو بذلك.
التعليقات