القاهرة: الأمير كمال فرج.
قبل أكثر من 20 عامًا، أحدث المفكر المستقبلي نيك بوستروم تحولًا جذريًا في عقول المهووسين بالتكنولوجيا حول العالم، عندما طرح في ورقة بحثية عام 2003 فكرة أننا قد نكون جميعًا نعيش داخل محاكاة حاسوبية.
ذكر تقرير نشره موقع Futurism أن "أفكار بوستروم حظيت بإعجاب شخصيات مؤثرة مثل إيلون ماسك، وبيل غيتس، وسام ألتمان. ومنذ ذلك الحين، نشر بوستروم عملين آخرين مؤثرين:
في عام 2014، أصدر كتاب "الذكاء الخارق: المسارات، المخاطر، الاستراتيجيات" الذي تناول فيه كيف يمكن للذكاء الاصطناعي أن يتفوق على البشر.
وفي عام 2024، نشر كتاب "المدينة الفاضلة العميقة: الحياة والمعنى في عالم تم حل مشاكله" الذي يتأمل في ما سيحدث إذا نجح الذكاء الاصطناعي في حل كل شيء.
كما واجه بوستروم جدلًا طفيفًا بعد الكشف عن رسالة إلكترونية عنصرية للغاية أرسلها في التسعينيات، وفي العام التالي، أُغلق معهد مستقبل الإنسانية التابع لجامعة أكسفورد، وهو ما وصفه الفيلسوف بأنه "موت بسبب البيروقراطية".
تسارع التطورات
يقول بوستروم في مقابلة مع صحيفة London Standard إنه يرى الآن بعض تنبؤاته حول الذكاء الاصطناعي تتحقق على أرض الواقع.
يُشير الفيلسوف إلى أن "كل شيء يحدث الآن"، مضيفًا أنه "منبهر جدًا بالسرعة التي شهدناها في التطورات على مدى السنوات القليلة الماضية".
ويُعتقد بوستروم أن العالم "في طريقه" نحو الذكاء الاصطناعي العام AGI، وهو المرحلة التي تصبح فيها أنظمة الذكاء الاصطناعي ذكية مثل البشر. ويكشف أنه عندما كتب "الذكاء الخارق" في أوائل العقد الماضي، كان يطرح أفكارًا نظرية إلى حد كبير، والآن مع اقترابنا من تحقيقها، بدأت بعض أفكاره تتغير.
تحول في التفكير
في عام 2019، عندما كانت تقنيات الذكاء الاصطناعي الناشئة تبدو وكأنها خيال علمي، صرح بوستروم لمجلة Business Insider بأن "الذكاء الاصطناعي يمثل تهديدًا أكبر للوجود البشري من تغير المناخ"، وأنه لن يكون "أكبر تغيير نشهده هذا القرن".
لكن عندما سُئل مؤخرًا عما إذا كان لا يزال يؤمن بهذا، تهرب الفيلسوف من الإجابة المباشرة.
وقال بوستروم للصحيفة: "هناك دائمًا احتمال أن تدمر الحضارة البشرية نفسها بطريقة أخرى، بحيث لا نحصل حتى على فرصة لاختبار حظنا مع الذكاء الخارق".
والأكثر إثارة للاهتمام، يبدو أن الأستاذ السابق في جامعة أكسفورد قد غيّر رأيه بعض الشيء بشأن الذكاء الاصطناعي المتقدم، حيث صرح للصحيفة اللندنية بأن الذكاء الاصطناعي العام أمر حتمي وأنه ليس بالضرورة ضده، فقد علّق بوستروم قائلًا: "إعادة تنظيم المجتمع بالكامل يمكن أن يكون أمرًا إيجابيًا".
تحديات المستقبل
مع اقتراب هذا المستوى المتقدم من الذكاء الاصطناعي، يرى المفكر المستقبلي أن هناك أربعة تحديات رئيسية يجب التعامل معها:
المواءمة: كيفية مواءمة الذكاء الاصطناعي مع القيم البشرية وضمان سلامته.
الحوكمة: كيفية حوكمة الذكاء الاصطناعي العام لمنع البشر من استخدامه في الشر.
الاحترام: كيفية "احترام الوضع الأخلاقي للعقول الرقمية".
منع الصراع: كيفية منع الذكاء الخارق من محاربة بعضه البعض.
بينما تُعتبر النقطتان الأوليان -المواءمة والحوكمة- جزءًا من مهمة أي مختبر للذكاء الاصطناعي، إلا أن النقطتين الأخيرتين غير تقليديتين، حتى بالنسبة للشخص الذي روّج لنظرية المحاكاة.
يشرح بوستروم خطر "العقول الرقمية" قائلًا: "قد يبدو هذا غريبًا، لكن بينما نبني أنظمة ذكاء اصطناعي أكثر تعقيدًا وتطورًا، من الممكن أن يكون لبعضها درجات وأشكال مختلفة من الوضع الأخلاقي".
أما وصفه لمعركة الذكاء الخارق، فهو أغرب. يفترض بوستروم أنه إذا جاءت أجناس فضائية إلى الأرض ومعها ذكاء اصطناعي فائق التطور، يمكن للبشر نظريًا أن يلعبوا دور صانع السلام بينهم.
وأوضح: "إذا كان أي من هذه الكائنات الفضائية موجودًا، فإن أحد المتطلبات المهمة عندما نصنع ذكاءنا الخارق هو التأكد من أنه سيتوافق مع هذه الكائنات الخارقة الأخرى".
رؤية متفائلة لمستقبل العمل
بقدر ما تبدو هذه التوقعات المستقبلية غريبة، فإن أفكار بوستروم حول الذكاء الاصطناعي الحالي أكثر واقعية، وإن كانت مثالية بعض الشيء.
يعلن الفيلسوف أن "الهدف هو البطالة الكاملة"، مضيفًا "سوف نحتاج إلى إيجاد أسس مختلفة لقيمتنا الذاتية وكرامتنا، وطرق مختلفة لملء حياتنا وأيامنا، بعيدًا عن الحاجة إلى العمل لكسب لقمة العيش".
وعلى الرغم من صعوبة تصور عالم تكون فيه "البطالة الكاملة" أمرًا إيجابيًا، إلا أن بوستروم، المتفائل دائمًا، يعتقد أن عالم ما بعد العمل يمكن أن يكون رائعًا.
ويختتم حديثه: "في نهاية المطاف، يمكن للذكاء الاصطناعي المتقدم أن يفتح مساحة أكبر بكثير لازدهار البشرية. إذا سارت الأمور على ما يرام، فسوف يتذكر الناس عام 2025 ويرتعدون رعبًا من الحياة التي عشناها".