الذكاء الاصطناعي والقانون
عنوان جديد في العالم القانوني بدأ ينتشر شيئاً فشيئاً ويحصل على اهتمام الكثير من العلماء القانونيين في العديد من أروقة القانون الجزائي والإداري وغيره.
تطرقت في دراستي القانونية إلى عدة مجالات ومحاور في علاقة القانون بالذكاء الاصطناعي (AI) منها علاقة الذكاء الاصطناعي بقانون الصحة العامة وعلاقته بالقانون الجزائي وإمكانية استخدامه في المحاكمة وفي القطاع المالي وقانون المنافسة، وما جذب انتباهي علاقته بالقانون الإداري وقواعد تحديد المسؤولية عن استخدام الذكاء الاصطناعي، وهو ما سأقدم شرحاً موجزاً عنه.
- بالنسبة للقانون الإداري :
يكون استخدام الذكاء الاصطناعي غاية في الأهمية في تحقيق الأهداف المرجوة للقانون الإداري، لأن استخدام الذكاء الاصطناعي يساعد بشكل فعّال في القضاء على مخاطر الفساد واساءة استعمال السلطة إضافة الى قدرة الذكاء الاصطناعي بتحديد المنتفعين من الخدمات العامة التي تقدمها الدولة بشكل عادل ومنتظم للجميع، فمن خلاله يمكن أن يقوم بفحص بيانات كل شخص وتقديم الخدمات المناسبة له تلقائياً دون انحياز أو تفضيل، والأمر الأكثر نفعاً برأيي قدرته على كشف أي تلاعب أو حالة فساد متواجدة في المؤسسات حتى ولو كانت ضمن البيانات المخزنة من خلال فحصها بشكل دوري.
وكل ذلك يعتمد بشكل كبير على أتمتة الإجراءات الإدارية ووجود قاعدة بيانات كاملة ودقيقة.
هذا من جهة، ومن جهة أخرى في القضاء الإداري على سبيل المثال من الممكن استخدام الذكاء الاصطناعي في تطوير وإيجاد الثغرات في القانون والاجتهادات القضائية وتناقضها مع القانون ومع بعضها أحياناً وحلها، من خلال تزويده بقاعدة بيانات تتضمن جميع القوانين والاجتهادات والمحاكمات التي حصلت أمام القضاء وحيثياتها وجميع التفاصيل للحصول على أفضل النتائج.
والجدير بالذكر أنه يتم الآن دراسة استخدام الذكاء الاصطناعي في المحاكمة جنباً إلى جنب مع القضاة من خلال تدريبه على معالجة القضايا وإصدار الأحكام سواء في القضاء الإداري وغيره.
بناء على ما سبق، ماذا لو أخطئ الذكاء الاصطناعي وقام بمعالجة بعض البيانات المتضمنة حالة فساد على أنها قانونية وسليمة أو أنه خلال تفسيره وشرحه للقانون قدم شرحاً متناقضاً أو أصدر حكماً في محاكمة غير صحيح؟
وماذا لو ارتكب الذكاء الاصطناعي "بشكل مستقل" خطأ أدى لحدوث ضرر لشخص ما
من المسؤول برأيكم ؟ هل يمكن تحميل الذكاء الاصطناعي المسؤولية أم المطور؟ كيف سنعاقب الذكاء الاصطناعي أساساً ؟
- هذا الأمر يعد معضلة حقيقية تواجه صناع وعلماء القانون في هذا المجال (وأميل شخصياً إلى تسميتهم مهندسين القانون) والأسباب هي كالتالي :
الذكاء الاصطناعي يتضمن حدود محددة يضعها المطور وأوامر معينة يعمل من خلالها عندما يتلقاها ويتفاعل معها ولكن المعضلة تظهر في أن الذكاء الاصطناعي مصمم أيضاً ليتعلم وحده ويتطور لوحده أي أن تصميمه من قبل المطور ليس كل شيء في البداية.
- أيضاً لا يمكن وضع قواعد صارمة على المطورين وتحميلهم المسؤولية كاملة لأن ذلك سيؤدي إلى نفورهم في الوقت الذي يجب تشجيعهم على التطوير والبرمجة وأرى أنه لابد من تحميلهم جزء من المسؤولية كأمر ضروري لتنظيم عملية التطوير في هذا المجال.
- المشكلة الأكبر بناء على دراستي لما سبق تظهر في عدم القدرة على التنبؤ بتصرفات الذكاء الاصطناعي وفهم طريقة معالجته للوقائع فذلك يختلف باختلاف البيئة التي يتعلم منها وينمو خلالها حتى أن المطور بنفسه لا يستطيع دوماً فهم طريقة عمله وتصرفاته.
وهو ما يقودنا إلى ما يعرف "بالصندوق الأسود" أي هي الحالة التي يتخذ فيها الذكاء الاصطناعي قرار ما او تصرف معين دون تفسير ودون القدرة على فهم السبب ففي هذه الحالة تحديد المسؤولية يكون غاية في الصعوبة.
البعض اقترح نوع من النهج الوقائي الاستباقي الشائع في القانون البيئي بين الدول وهو يقوم على أن القانون يطلب من المطورين شراء تأمينات من شأنها التعويض على المتضررين من الذكاء الاصطناعي عند عدم وجود شخص يتحمل مسؤولية الضرر، مع الإلزام باتخاذ إجراءات احترازية لمنع وقوع الضرر بالطبع.
في الختام أرى أن ظهور واندماج الذكاء الاصطناعي في المجال القانوني أمر ممتع وهام ومليئ بالتحديات و لا يخلو من الحاجة إلى البراعة والهندسة القانونية في تسييره وتنظيمه ونشره بنطاق أوسع بل والتوعية والتعريف به لجميع القانونيين أساتذة ومحامين وطلاب والبحث فيه.
🖋️ | محمد المقداد
التعليقات