القاهرة: الأمير كمال فرج.
يشعر خبراء الردع النووي بقلق متزايد بشأن الدور الذي بات يلعبه الذكاء الاصطناعي في الشؤون العسكرية. ففي ظل تسابق الدول لدمج هذه التقنية في أنظمة الأسلحة والقيادة، يبرز شبح سيناريوهات كارثية حيث قد يؤدي الاعتماد المفرط على الخوارزميات إلى اتخاذ قرارات خاطئة تطلق شرارة حرب نووية لا غالب فيها ولا مغلوب.
يقول الخبراء إن الضغط المتزايد لدمج الذكاء الاصطناعي في كل مستويات صنع القرار العسكري يؤدي إلى "منحدر زلق" قد يفضي إلى شيئين:
إما أن يُمنح الذكاء الاصطناعي صلاحية إطلاق الأسلحة النووية بنفسه.
أو أن يصبح البشر المسؤولون عن ذلك الإطلاق معتمدين بشكل كامل على توجيهاته، فينفذون ما يطلبه منهم.
والأسوأ من ذلك، وفقًا للخبراء، أن هذا يحدث بينما لا نزال لا نفهم تمامًا كيفية عمل الذكاء الاصطناعي. كما أظهرت التجارب في محاكاة الألعاب الحربية أن الأنظمة تتجه لتصعيد النزاعات إلى مستويات كارثية، على عكس البشر الذين كانوا ليعملوا على تهدئة الأوضاع.
وقالت جاكلين شنايدر، مديرة مبادرة Hoover للمحاكاة الحربية والأزمات في جامعة ستانفورد، والتي اختبرت أنظمة الذكاء الاصطناعي في مواجهة الألعاب الحربية العسكرية، لمجلة Politico في تقرير جديد ومثير للقلق: "يبدو أن الذكاء الاصطناعي يفهم التصعيد، لكنه لا يفهم التهدئة". وأضافت: "لا نعرف حقًا لماذا يحدث هذا."
يأتي هذا في الوقت الذي تسعى فيه إدارة ترامب إلى دمج الذكاء الاصطناعي في العديد من جوانب الحكومة، مع تقليل لوائح السلامة الخاصة بهذه التقنية.
وقال جون وولفستال، مدير قسم المخاطر العالمية في اتحاد العلماء الأمريكيين، لمجلة Politico : "ليس هناك توجيهات قائمة، على حد علمنا، داخل البنتاغون بشأن ما إذا كان ينبغي دمج الذكاء الاصطناعي في نظام القيادة والتحكم والاتصالات النووية، وكيف يتم ذلك."
ضمانات غير كافية
حاليًا، يصر البنتاغون على أنه سيكون هناك دائمًا إنسان في حلقة اتخاذ القرار. وقال مسؤول كبير لمجلة Politico : "تدعم الإدارة ضرورة الحفاظ على السيطرة البشرية على الأسلحة النووية."
لكن الخبراء مثل شنايدر يخشون أن هذا الالتزام قد يتآكل مع قيام خصوم مثل روسيا والصين بدمج الذكاء الاصطناعي في هياكل القيادة العسكرية الخاصة بهم، أو أن يتورط مسؤولو البنتاغون في نزاع نووي لأن نظامًا معيبًا للذكاء الاصطناعي أخبرهم أن هذا الأمر حتمي.
وأعربت شنايدر عن قلقها قائلة: "لقد سمعت قادة عسكريين يقولون، "أريد شخصًا يمكنه أخذ كل نتائج اللعبة الحربية، وعندما أكون في وضع أزمة، يخبرني بالحل بناءً على تفسير الذكاء الاصطناعي"
قلق متجدد
بشكل ما، هذه المخاوف هي نسخ جديدة لمشاكل قديمة. يُعتقد أن روسيا لا تزال تحتفظ بنظام "اليد الميتة" من حقبة الحرب الباردة، والذي من شأنه أن ينتقم تلقائيًا من أي ضربة نووية يتم رصدها، على الرغم من أن النظام قد لا يكون نشطًا حاليًا.
صحيح أن المشكلة برمتها تبدو وكأنها حبكة لفيلم خيال علمي عن نهاية العالم، كما أوضحت مجلة Politico . ولكن يبدو أنه حتى بعد مشاهدة كل تلك الأفلام، لا يمكننا تجنب الانزلاق إلى هذا الواقع نفسه.
وكتب زوج من خبراء الردع النووي في منشور بمدونة عام 2019 يدعو الولايات المتحدة إلى تطوير نظام "اليد الميتة" الخاص بها: "لا شك أن هذا الاقتراح سيولد مقارنات بآلة يوم القيامة في فيلم (دكتور سترينجلوف)، ونظام (ووبر) في فيلم (وورجيمز)، وشبكة (سكاينت) في فيلم (المدمر)، لكن الصور النبوئية لهذه الأفلام الخيالية سرعان ما تتحول إلى واقع."