تطور الذكاء الاصطناعي يحمل إمكانيات هائلة لتحسين حياتنا، ولاحظنا هذا في الأدوات الكثيرة التي إنتشرت والتي فاقت الخيال، لكن يتطلب وضع حدود لضمان استخدامه بشكل آمن، حيث حدثت بالتأكيد بعض المشاكل خصوصا في استخدام أدوات توليد الصور والتي كانت بين الحين والآخر تنحرف عن عملها الأصلي، ولكن إيجابياتها غطت على سلبياتها، وليست هذه فقط الأدوات المتوفرة حاليا في وقتنا فاقت الخيال وأصبحنا جميعا نستخدمها في حياتنا أو حتى في عملنا، لكن مع هذه الإمكانيات يأتي تحدي وضع حدود تضمن الاستخدام الآمن والأخلاقي لهذه التكنولوجيا، لذا حسب ستخدامك لهذه الأدوات، فما هي الحدود التي يجب وضعها لتطور الذكاء الاصطناعي؟
ما هي الحدود التي يجب وضعها لتطور الذكاء الاصطناعي؟
أرى أن أكثر المشاكل التي تواجه هذه التقنية هي المشاكل المتعلقة بحقوق الطبع والملكية الفكرية، وقد شاهدنا ذلك من خلال تلك الدعوات القضائية المرفوعة ضد هذه التقنية، في واقعة قرأت عنها مؤخرا أنه في محكمة منهاتن الفدرالية كاتبان اتهما أوبن إيه آي ومايكروسوفت بانتهاك حقوق الطبع والنشر الخاصة بهما ببيانات تُستخدم لتدريب نموذج اللغة الكبير الخاص ببرنامج شات جي بي تي، وكذلك سبقت هذه الدعوى دعوات أخرى من مؤلفة بوليودية ومن صحيفة نيويورك تايمز، حيث تتهم مؤسسي هذه التقنية أنه استغلوا أعمالهم الابداعية من أجل تغذية التقنية بمراجع وبيانات مما يخرق بنود حقوق الملكية الفكرية المتفق عليها، لذلك يجب وضع حدود لتفادي مثل هذه المواقف والصراعات وحفظ الحقوق المشروعة للجميع.
كاتبان اتهما أوبن إيه آي ومايكروسوفت بانتهاك حقوق الطبع والنشر الخاصة بهما ببيانات تُستخدم لتدريب نموذج اللغة الكبير الخاص ببرنامج شات جي بي تي، وك
إذاً، المشكلة هنا إنسانية في الأساس، فنحن من نسمح بحدوث هذه الاختراقات، ولا أعلم هنا ما الهدف النهائي، لنفترض أن نماذج اللغة الخاصة بال AI أصبحت أكثر تطورًا وقادرة على توليد نتائج مماثلة لأعمال أشهر الكتاب، العازفين، الرسامين.. إلخ، هنا سيكون اللجوء الأكبر للآلة وتهميش القدرات الإنسانية مهما بلغت من تفرد، لأننا لدينا القدرة على توليد ما هو أفضل منها باستخدام نماذج تحاكي أعمال من يمكن اعتبارهم طفرات في كل مجال، هل تعتقدين هنا أن عبارة أن ال AI سيحل مكان القدرات البشرية،، باتت شبه مؤكدة؟
هناك حقيقة لا يمكن إنكارها أن نماذج الذكاء الاصطناعي قد تطورت بشكل كبير وأصبحت قادرة على إنتاج محتوى يشبه إلى حد كبير ما ينتجه البشر، سواء في الأدب أو الموسيقى أو الفنون التشكيلية، و من منظور إنساني، يمكن القول أن هناك مخاوف حقيقية من تهميش القدرات البشرية، خاصة في المجالات التي تتطلب إبداعا وفنا، لكن يجب أن ننظر إلى هذه القضية من زوايا متعددة، فالذكاء الاصطناعي هو أداة، مثلها مثل أي تقنية أخرى تعتمد كيفية استخدامها وتأثيرها على البشر على القرارات التي نتخذها نحن كمجتمع، يعني يمكن استخدام الذكاء الاصطناعي لتعزيز القدرات البشرية، وتوفير أدوات جديدة للفنانين والمبدعين لتحسين إبداعاتهم، بدلا من استبدالهم بالكامل.
حيث حدثت بالتأكيد بعض المشاكل خصوصا في استخدام أدوات توليد الصور والتي كانت بين الحين والآخر تنحرف عن عملها الأصلي، ولكن إيجابياتها غطت على سلبياتها
المشكلة أن سلييات تكنولوجيا كتوليد الصور كبيرة جدًا سواء من الناحية الأخلاقية أو من ناحية الضرر الكبير التي تلحقه بالمجتمع الفني ولا أعتقد أنه يمكننا الحسم أن فائدتها اكبر من عيوبها إلى الآن، لهذا بخصوص هذه التكنولوجيا بالخصوص لا أعلم كيف يتم السيطرة عليها من المنبع وأعتقد أنه أمر أقرب للمستحيل لكن بكل تأكيد يجب توقيع عقوبات شديدة جدًا على من يستخدمها بشكل غير أخلاقي ويشهر بالناس وعلى من يتيح هذه الوسائل ويجب أن تتضمن هذه العقوبات السجن لمدد طويلة حتى تكون رادعة.
كتوليد الصور كبيرة جدًا سواء من الناحية الأخلاقية أ
قرأت مسبقًا عن خطورة هذه الفكرة، وخصوصًا مع تطور توليد الفيديوهات والقدرة العالية على استخدام الأصوات الشخصية، قد تجد مستقبلًا نزاعات سياسية مدمرة حرفيًا، بناءً على فيديوهات مصممة بال Ai وليس للأفراد المعنية علاقة بأي محتوى داخلها.
بالضبط حتى أن أحد القنوات الكوميدية كانت تعرض طوال اليوم مناظرات بين الرئيس الأمريكي السابق ترامب والحالي بايدن بالصوت والصورة لكلام لم يقولوه من قبل على الإطلاق بل هو مجرد ذكاء اصطناعي يمثل دور هذا وذاك ويتحدثون مع بعضهم ويردون على بعضهم بطريقة شبية جدًا بالحقيقة، أمر مخيف جدًا ويؤكد ما طرحتيه أن هذا قد يؤدي في المستقبل لصراعات لا نهاية لها.
أرى أن الحل يكون بيد للشركات المطورة لهذه التكنولوجيا، حيث يمكن أن تلعب دورا مهما في هذا السياق من خلال تضمين إجراءات حماية وأدوات لمراقبة ومنع الاستخدامات الضارة، يجب أن تعمل هذه الشركات بالتعاون مع الجهات الحكومية والمنظمات الحقوقية لضمان استخدام هذه التقنيات بشكل آمن ومسؤول.
المشكلة ليست بالشركات الكبري التي توفر هذه الخدمة لكن بالنسبة لسوق الذكاء الاصطناعي فهناك الكثير من الأدوات التي لا تكاد تحصر ومنها ما لا يعرف بالضبط مصدره وخاصة أن بعضها يكون على الانترنت العميق وما شابه وهذه هي التي بها المشكلة فهم لا يخضعوا لأي قوانين ولا يمكن التحكم فيهم سوى بتحقيقات وتتبعات مضنية ومكلفة لكن ضرورية جدًا.
إذا وصلنا لتلك التفاصيل فالأمر هنا لن يعد بخصوص الذكاء الإصطناعي و فقط، بل أي مجال في هذا العالم الإفتراضي دائما لديه جانب سيء و جانب غير قانوني مثلا برامج الكراك، فهي تعتبر من السلبيات أيضا.
بالطبع لكن لا يمكن أن نغفل هذا في خضم الحديث عن موضوع الذكاء الاصطناعي بالتحديد لأن استخداماته غير القانونية بالتأكيد هي أكثر ضررًا بكثير من غيرها من الممارسات، فقد تشهر بأشخاص لا ذنب لهم وتدمر حياتهم حرفيًا وهذا أصبح يحدث كثيرًا مثلًا كنوع من الانتقام أو الخداع أو تلفيق التهم أو تضليل القضاء والرأي العام، حتى أنه أصبح من المعروف الآن أن الجيش الصهيوني استخدم هذه التقنيات في توليد الأهداف وضربها.
أرى أن الحل يكون بيد للشركات المطورة لهذه التكنولوجيا
لا أعتقد أن تلك الشركات ستلعب دورًا حقيقيًا في وضع ضوابط وإجراءات بما يتناسب مع المعايير الإنسانية والأخلاقية لأن ذلك سيتقاطع بشكل أساسي مع أهدافهم الربحي، بل إنهم يروجون بأن وضع الضوابط وسيتعارض مع حرية الفكر والتعبير.
معك حق في هذا الأمر، فكل تلك البنود التي يضعونها مجرد شكليات فقط لإسكات الرأي العام، ولكن مالاحظته أن للمستخدمين أيضا قوة أكبر من التي لديهم، حيث ما حدث مع جوجل بخصوص توليد الصور و بسبب كثرة الشكاوي تم إرغامها على توقيف الخدمة مؤقتا إلى أن تم إصلاح المشكل.
فما هي الحدود التي يجب وضعها لتطور الذكاء الاصطناعي؟
المفترض أنها الحدود الأخلاقية والأمنية، لكن للأسف سيكون من الصعب جدًا التأكد من تطبيق تلك الحدود، ومن الأصعب ملاحقة المخترقين لها والمخالفين كما أن ماهية تعريف تلك الحدود ستختلف من جهة إلى أخرى، وسيتهاوى كثير منها مع المصالح التجارية والاقتصادية للقائمين على أنظمة الذكاء الاصطناعي.
حتى مع وجود معايير واضحة، يبقى تحدي التطبيق والمراقبة قائماً، تقنيات الذكاء الاصطناعي تتطور بسرعة، وقد يجد المخترقون طرقا جديدة لتجاوز الأنظمة الأمنية، أو الثغرات التي في هذه الأنظمة يعني يجب أن يكون هناك توازن بين الابتكار والحماية، الابتكار في مجال الذكاء الاصطناعي يحمل فوائد عظيمة، ولكن يجب ألا يأتي على حساب المبادئ الأخلاقية والأمنية التي تحمي الأفراد والمجتمعات.
لذا حسب ستخدامك لهذه الأدوات، فما هي الحدود التي يجب وضعها لتطور الذكاء الاصطناعي؟
حدود تخص التحيّزات والشفافية واختراق بيانات الأفراد بهدف مساعدتهم، بمعنى أننا لو أخذنا مثال استخدام هذا النوع من التقنيات في مجال القضاء، كيف يمكن أن نتأكد أن بناء على التحليلات السريعة وافتراضات ال AI ستكون النتيجة عادلة بالنسبة للبشر، مع العلم أن واحدة من الأزمات الأخلاقية الخاصة بال AI هي عدم تحيزه لصالح البشر، لذا؛ هل ترى أنه هذه المشكلة يمكن تفاديها؟
تعتمد أنظمة الذكاء الاصطناعي على البيانات التي تدرب عليها، إذا كانت هذه البيانات تحتوي على تحيزات بشرية أو تاريخية، فإن النظام سيعكس هذه التحيزات في نتائجه، وهذا الأمر يجب أن يتم أخذه بعين الإعتبار فعلا و الحل الوحيد هنا يجب مراجعة وتنقية البيانات المستخدمة في تدريب النظام للتأكد من خلوها من التحيزات.
حدود فهمنا لطريقة توليد المعلومات، هذه الحدود الأهم برأيي التي يجب وضعها، نحن للأسف على عكس غوغل سابقاً الذي كنّا نفهم أنه يستعرض لنا معلوماته بناءً على أولوية قواعد تحسين محرّكات البحث SEO، اليوم نحن مع الذكاء الاصطناعي لا يوجد عندنا أي قدرة على تفسير العديد من أنظمة وطرق عمل الذكاء الاصطناعي، نتعامل مع أداة مجهولة بالنسبة لنا، معقدة، من الصعب فهم كيفية وصولها إلى قراراتها باستعراض ما استعرضت لي من معلومات بناءً على بحثي، هذا النقص في الشفافية يمكن أن يجعل من الصعب الثقة في الذكاء الاصطناعي وتحديد الأخطاء وإصلاحها من ناحية المستخدم، اليوم الدفّة كلها يديرها المطوّرين وهذا يجعلني أقع في عدم ثقة بهم، ما الذي يدريني فعلاً كميّة التحيّز والخدع في هذه المسائل الغير قابلة للفهم بعد من قبل المستخدم؟ من قبلي؟
تقنيات الذكاء الاصطناعي، وخاصة الشبكات العصبية العميقة، تعمل بطرق معقدة يصعب تفسيرها حتى من قبل المطورين أنفسهم، هذا يعنى أننا نتعامل مع أنظمة تعتبر إلى حد كبير "صندوقاً أسود"، حيث ندخل البيانات ونحصل على النتائج دون فهم دقيق لكيفية معالجة هذه البيانات داخليا، ولكن تعتمد الكثير من المؤسسات على المطورين لتحسين وتعزيز شفافية هذه الأنظمة، هناك توجه متزايد نحو تطوير ما يعرف بـ "الذكاء الاصطناعي القابل للتفسير" (Explainable AI)، وهي تقنيات تهدف إلى جعل عمليات الذكاء الاصطناعي أكثر شفافية وقابلة للفهم.
التعليقات