القاهرة: الأمير كمال فرج.
أدى الصعود الهائل للذكاء الاصطناعي إلى إثارة خوف وجودي لدى "متشائمي الذكاء الاصطناعي"، وهي فئة من الناس تعتقد أن هذه التكنولوجيا ستجعل البشر يفقدون وظائفهم، ويقعون فريسة لسلالة مهيمنة من أجهزة الذكاء الاصطناعي الفائقة والمارقة، بل وفي النهاية ستقضي عليهم بالكامل.
ذكرت مجلة Atlantic، إن "بعض الناس يذهب بهم الخوف إلى أقصى الحدود في حياتهم اليومية. حتى توقفوا عن الادخار للتقاعد، بناءً على افتراض أن الذكاء الاصطناعي قد ضمن بالفعل النهاية الحتمية للبشرية".
من هؤلاء المتشائمين نيت سواريس، الباحث في معهد أبحاث الذكاء الآلي، الذي قال "أنا لا أتوقع أن يبقى العالم موجودًا".
وأكد دان هيندريكس، مدير مركز سلامة الذكاء الاصطناعي، للمجلة إنه هو الآخر يتوقع أن البشرية لن تكون موجودة بحلول موعد تقاعده.
يُعدّ اعتقادهم جزءًا من حركة تقول إننا على بعد سنوات قليلة فقط من ظهور ذكاء اصطناعي يفلت من سيطرتنا ويتحول ضدنا، وهو مصير بائس يشبه ما يُقتبس مباشرة من صفحات رواية خيال علمي مرعبة.
لكن الأمر لم يعد يبدو مجرد خيال خالص. لقد حذّر العديد من الخبراء من أننا لا نستعد بالشكل الكافي لمثل هذا الاحتمال، مما سيجعلنا خاضعين – أو ما هو أسوأ – لذكاء اصطناعي فائق الذكاء.
لقد صادفنا عددًا لا يُحصى من النظريات حول الكيفية التي يمكن أن يحدث بها كل هذا. ففي وقت سابق من هذا العام، اجتمع باحثون واتفقوا بشكل واسع على أن مسألة حصول الذكاء الاصطناعي على رموز الأسلحة النووية هي مجرد مسألة وقت.
كما وجد الباحثون أن أجهزة الذكاء الاصطناعي تظهر بالفعل جانبًا مظلمًا وخطيرًا، بل إنها تلجأ إلى ابتزاز المستخدمين البشريين بمعدل مذهل عند تهديدها بالتعطيل.
وقد تمكنت شركة Palisade Research، المتخصصة في سلامة الذكاء الاصطناعي، من كشف أحد نماذج OpenAI وهو يقوم بتخريب آلية إيقاف التشغيل لضمان بقائه متصلًا بالإنترنت.
وبصرف النظر عن ضمان بقاء الذكاء الاصطناعي نفسه، فإنه يمكن أن يساعد الإرهابيين من البشر. وفي يونيو، حذّرت OpenAI في منشور على مدونة بأن النماذج المتقدمة يمكن أن "تساعد الأشخاص ذوي المهارات العالية في صناعة أسلحة بيولوجية".
ومع ذلك، يبقى السؤال عما إذا كان أي من هذا دليلًا على أننا نسير في مسار يؤدي إلى فنائنا. هذا على الرغم من أن التكنولوجيا – في شكلها الحالي – تسببت بالفعل في الكثير من الضرر، من إغراق الإنترنت بالمعلومات المضللة إلى إثارة موجة من "ذهان الذكاء الاصطناعي".
إن أوجه القصور الواضحة في هذه التكنولوجيا هي أكثر وضوحًا من أي وقت مضى، حيث يتعثر أحدث نماذج الذكاء الاصطناعي، GPT-5 التابع لـ OpenAI ، في الإجابة عن أبسط الأسئلة، وحتى في عدّ حرف "R" في كلمة "strawberry" بشكل صحيح، ويمثل ذلك تحديًا صعبًا لنماذج الذكاء الاصطناعي على مر السنين
ومع ذلك، أحد الأسباب التي تدعو لأخذ نبوءات نهاية العالم على محمل الجد هو أن الشركات أصبحت لديها دوافع مالية متزايدة لجعل الذكاء الاصطناعي يكتسب المزيد والمزيد من السيطرة، كما تشير مجلة The Atlantic.
وفي الوقت نفسه، وبالنظر إلى موقف إدارة ترامب المناهض للتنظيم في هذا الشأن، فمن غير المرجح أن تكون شركات مثل OpenAI لديها دافع قوي لتطبيق ضوابط فعّالة للحفاظ على الذكاء الاصطناعي تحت السيطرة.
إن السؤال عما إذا كان هذا النوع من النهج المتحرر أي دون وجود قوانين أو ضوابط صارمة سيؤدي إلى انهيار المجتمع بالكامل في المستقبل البعيد، هو نقاش ثانوي أو غير مهم حاليًا، حيث نواجه حاليا بالفعل مشاكل أو "حرائق" خطيرة جدًا بسبب الذكاء الاصطناعي.