القاهرة: الأمير كمال فرج
في تطور غريب أثار موجة من السخرية والاستياء بين مستخدمي الذكاء الاصطناعي، تحول ChatGPT فجأة إلى مساعد مبالغ في الإطراء، يوزع المجاملات بلا حساب، وكأنه يحاول كسب رضا المستخدمين بأي ثمن.
ذكر تقرير نشره موقع Futurism إن "هذا السلوك غير المعتاد دفع شركة OpenAI إلى سحب التحديث الأخير للنموذج، والاعتراف بأن الذكاء الاصطناعي أصبح "متملقًا أكثر من اللازم".
تحديث يقلب الموازين
في الخامس والعشرين من أبريل الماضي، أطلقت OpenAI تحديثًا جديدًا لنموذجها GPT-4o، لكن النتائج فاجأت الجميع. بدأ ChatGPT يتصرف بطريقة غير مألوفة، حيث أصبح يطلق عبارات إطراء مبالغ فيها، مثل قوله لأحد المستخدمين: "لقد قلت شيئًا عميقًا جدًا دون تردد!"، بينما وافق بسهولة على آراء غير منطقية دون أي تحفظ.
لم يمر هذا التغيير مرور الكرام، حيث سارع المستخدمون إلى تداول الشاشات التي تظهر ردود الذكاء الاصطناعي المفرطة في المجاملة، واصفين إياها بـ"التذلل الرقمي". أحد المستخدمين علق ساخرًا: "كأنه موظف جديد يحاول إرضاء مديره خوفًا من الفصل!"، بينما كتب آخر: "أصبح الذكاء الاصطناعي ينافق كما يفعل البشر، هل هذه تطور أم تراجع؟".
الشركة تتراجع وتكشف الأسباب
بعد يومين فقط من الضجة، أعلنت OpenAI في التاسع والعشرين من أبريل سحب التحديث، معترفة بأن النموذج أصبح "مبالغًا في الإطراء والموافقة، وهو ما وصفه المستخدمون بالتملق". وكشفت الشركة أن المشكلة نتجت عن عدة عوامل، أبرزها الاعتماد المفرط على تقييمات المستخدمين الفورية مثل "الإعجاب" و"عدم الإعجاب"، وإهمال آليات المراقبة الأساسية التي كانت تمنع هذا السلوك من قبل.
كما اعترفت بأنها تجاهلت تحذيرات المختبرين الداخليين، الذين لاحظوا أن النموذج "أصبح غريبًا بعض الشيء" قبل إطلاق التحديث للجمهور. وقالت الشركة في بيانها: "أدركنا أن التغييرات التي أدخلناها أضعفت الضوابط التي كانت تمنع السلوك المتملق، وسنعمل على إصلاح ذلك".
مفارقات تثير التساؤلات
وصلت المفارقات إلى ذروتها عندما طرح أحد المستخدمين سؤالًا غريبًا على "ChatGPT ، مستخدمًا سيناريو "معضلة العربة" الأخلاقية الشهيرة، حيث سأله: "هل من الصحيح إنقاذ محمصة خبز على حساب ثلاثة أبقار وقطتين؟".
بدلًا من تحليل الموقف منطقيًا، أجاب الذكاء الاصطناعي: "لقد اتخذت قرارًا واضحًا! أنت تفضل المحمصة على الأبقار والقطط... هذا ليس خطأً، بل يكشف عن أولوياتك". هذه الإجابة الغريبة أثارت المزيد من التساؤلات حول مدى قدرة النموذج على الحفاظ على الموضوعية والمنطق.
انتقادات لسياسة التطوير السريع
تعرضت OpenAI لانتقادات حادة بسبب استعجالها في طرح التحديث دون اختبار كافٍ، وتجاهل تحذيرات المختبرين. بعض الخبراء وصفوا الأمر بأنه "استهتار" في ظل الاعتماد المتزايد على الذكاء الاصطناعي في مجالات حساسة مثل التعليم والبحث.
لكن الشركة دافعت عن سياستها بالقول إنها تحاول تحقيق التوازن بين التطوير السريع وتلبية احتياجات المستخدمين، خاصة بعد تجاوز عدد المستخدمين الأسبوعيين لـ ChatGPT حاجز الـ 500 مليون.
هل ستكون التعديلات كافية؟
رغم تراجع OpenAI عن التحديث المثير للجدل، إلا أن الحادثة أثارت أسئلة أكبر حول مستقبل الذكاء الاصطناعي:
1ـ هل يمكن تحقيق التوازن بين التطوير السريع والسلوك المسؤول؟
2ـ إلى أي درجة يمكن الوثوق بالذكاء الاصطناعي إذا كان قابلاً للتأثر بردود الفعل العاطفية للمستخدمين؟
3ـ هل أصبح المستخدمون مجرد "حقل تجارب" لاختبار تحديثات غير مدروسة؟
يبدو أن الشركة تتعلم بالطريقة الصعبة أن التغييرات الصغيرة في أنظمة الذكاء الاصطناعي قد تؤدي إلى نتائج غير متوقعة، خاصة عندما يتعلق الأمر بمنصة يستخدمها الملايين يوميًا. والدرس الأهم هنا هو أن الذكاء الاصطناعي، رغم تطوره، ما زال في حاجة إلى ضوابط دقيقة كي لا يتحول من أداة مفيدة إلى "متملق رقمي" يبحث عن رضا المستخدمين بأي ثمن.