القاهرة: الأمير كمال فرج.
لطالما رسم الخيال العلمي صوراً متعددة لمستقبل الذكاء الاصطناعي، لكنه نادراً ما تخيل استبدال القضاة البشر ببرمجيات رقمية. وللمرة الأولى، يبدو أن الواقع يتجاوز روايات الخيال العلمي في اتجاهات لم تكن متوقعة.
ذكر رونان كينيدي في تقرير نشره موقع The Conversation إن "قاضٍ كولومبي استعان في فبراير الماضي بروبوت "ChatGPT" لطلب المشورة في قضية تأمين. وفي الوقت ذاته تقريباً، استخدم قاضٍ باكستاني الأداة نفسها لتأكيد أحكامه في قضيتين منفصلتين، وسط تقارير مشابهة من الهند وبوليفيا".
ورغم أن هذه التجارب تظل "غير رسمية"، إلا أن هناك جهوداً ممنهجة للإصلاح القانوني بدأت تتبنى الذكاء الاصطناعي فعلياً؛ ففي الصين، يتلقى القضاة دعماً وتوجيهاً مستمراً من أنظمة ذكية. وفي إنجلترا، لمح السير جيفري فوس، ثاني أرفع قاضٍ في البلاد، إلى إمكانية استخدام الذكاء الاصطناعي للفصل في بعض النزاعات "الأقل شخصية"، مثل القضايا التجارية.
خديعة "الذكاء" الرقمي
قد تبدو الفكرة مغرية في البداية؛ فالقانون يجب أن يُطبق بموضوعية "دون خوف أو محاباة". وما هي أفضل وسيلة لتحقيق ذلك من برنامج حاسوبي؟ فالذكاء الاصطناعي لا يحتاج لاستراحة غداء، ولا يقبل الرشوة، ولا يطالب بزيادة راتب، كما أن "العدالة الرقمية" أسرع وأكثر كفاءة. ولكن، هل سنرى حقاً "قضاة آليين" في المستقبل؟
ثمة أربعة أسباب جوهرية تجعل هذه الفكرة محفوفة بالمخاطر:
1. معضلة "الصندوق الأسود" والنتائج الخاطئة
يعتمد الذكاء الاصطناعي حالياً على "تعلم الآلة" Machine Learning، وهو نظام يحسن أداءه بمرور الوقت ولكنه لا يتعدى كونه "تخمينات متعلمة". ورغم قدرته على إيجاد أنماط في البيانات الضخمة، إلا أنه يفشل بطرق تختلف تماماً عن الفشل البشري، مما يؤدي لنتائج كارثية أحياناً.
على سبيل المثال، خُدع نظام ذكاء اصطناعي سابقاً فصنّف "سلحفاة" على أنها "مسدس". كما تعاني أنظمة التعرف على الوجوه من تحيزات ضد النساء والأطفال وذوي البشرة الداكنة. الأخطر من ذلك هو مشكلة "الصندوق الأسود"Black Box؛ حيث يصعب فهم الكيفية التي وصل بها النظام إلى قراره، مما يجعل مراجعة الأحكام قضائياً أمراً شبه مستحيل.
ولا ننسى ظاهرة "هلوسة الذكاء الاصطناعي"؛ حيث تنتج هذه الأنظمة معلومات وهمية تماماً، كما حدث مع محامٍ في نيويورك استخدم ChatGPT ليكتشف لاحقاً أن البرنامج استشهد بقضايا وقوانين لا وجود لها في الواقع.
2. ترسيخ التحيزات التاريخية
تعتمد أنظمة تعلم الآلة على بيانات تاريخية، وفي عالم الجريمة والقانون، غالباً ما تكون هذه البيانات "ملوثة" بالتحيز ضد المجتمعات المهمشة. نظام Compas الأمريكي، الذي استخدمه القضاة لتحديد الكفالات والأحكام، واجه اتهامات بإنتاج "نتائج إيجابية كاذبة" ضد الملونين، مصنفاً إياهم كأشخاص يميلون لتكرار الجريمة بشكل خاطئ، بينما أعطى نتائج "سلبية كاذبة" للمجرمين من ذوي البشرة البيضاء.
3. استحالة تحويل "القانون" إلى "كود" برمجـي
من الصعب جداً تحويل القواعد القانونية المرنة إلى شيفرات برمجية جامدة. في تجربة شملت 52 مبرمجاً لأتمتة مخالفات السرعة، أنتج كل منهم برنامجاً يعطي نتائج مختلفة تماماً بناءً على نفس البيانات.
بينما يمكن استئناف حكم قاضٍ بشري وتصحيح تفسيره للقانون علنياً، فإن انحياز المبرمج (سواء كان متساهلاً أو متشدداً) قد يظل مدفوناً داخل الأسطر البرمجية لسنوات دون اكتشافه. وقد شهدنا كوارث مشابهة في هولندا وأستراليا (مثل فضيحة Robodebt) حيث أدت الأنظمة المؤتمتة إلى اتهام آلاف العائلات بالاحتيال ظلماً وتدمير حياتهم.
4. القضاء ليس مجرد "قرار"
أخيراً، عمل القاضي لا يقتصر على إصدار الأحكام فقط؛ فهو يدير قاعة المحكمة، ويوجه طواقم العمل، ويتعامل مع تعقيدات بشرية وإدارية لا يمكن لأي برنامج حاسوبي —مهما بلغت قوته— أن يحل محلها في الوقت الراهن.