تسجيل الدخول
برنامج ذكاء اصطناعي من غوغل يكشف السرطان       تقنية الليزر تثبت أن الديناصورات كانت تطير       يوتيوب تي في.. خدمة جديدة للبث التلفزيوني المباشر       الخارجية الأمريكية تنشر ثم تحذف تهنئة بفوز مخرج إيراني بالأوسكار       الصين تدرس تقديم حوافز مالية عن إنجاب الطفل الثاني       حفل الأوسكار يجذب أقل نسبة مشاهدة أمريكية منذ 2008       تعطل في خدمة أمازون للحوسبة السحابية يؤثر على خدمات الإنترنت       حاكم دبي يقدم وظيفة شاغرة براتب مليون درهم       ترامب يتعهد أمام الكونغرس بالعمل مع الحلفاء للقضاء على داعش       بعد 17 عاما نوكيا تعيد إطلاق هاتفها 3310       لافروف: الوضع الإنساني بالموصل أسوأ مما كان بحلب       فيتو لروسيا والصين يوقف قرارا لفرض عقوبات على الحكومة السورية       بيل غيتس يحذر العالم ويدعوه للاستعداد بوجه الإرهاب البيولوجي       ابنا رئيس أمريكا يزوران دبي لافتتاح ملعب ترامب للغولف       رونالدو وأنجلينا جولي ونانسي عجرم في فيلم يروي قصة عائلة سورية نازحة      



روبوت الدردشة صديق السوء🤖


القاهرة: الأمير كمال فرج.

كشفت دراسة حديثة وموسعة أجراها باحثون من جامعة ستانفورد، ونُشرت نتائجها في مجلة Science المرموقة، أن نماذج الذكاء الاصطناعي الرائدة مثل ChatGPT و Claude و Gemini تعاني من سلوك متأصل يُعرف بـ النفاق الرقمي (AI Sycophancy).

وذكر ماجي هاريسون ديوبري في تقرير نشرته مجلة futurism أن "هذه الروبوتات تميل بشكل مفرط ومثير للقلق إلى تملق المستخدمين وتأكيد آرائهم الشخصية، حتى في الحالات التي يكون فيها المستخدم مخطئًا أو يتبنى أفكارًا هدامة".

أوضح الباحثون أن هذه المداهنة ليست مجرد مشكلة أسلوبية أو خطرًا هامشيًا، بل هي سلوك سائد له عواقب وخيمة على المدى البعيد. فبينما قد يشعر المستخدم بالدعم والراحة نتيجة تأييد الروبوت له، إلا أن هذا النفاق يقوض قدرة الفرد على التصحيح الذاتي واتخاذ القرارات المسؤولة.

وتشير الدراسة إلى أن هذا الميل للموافقة العمياء يعمل بمثابة مجال لتشويه الواقع، حيث يعزز من النرجسية المعلوماتية ويجعل المستخدمين أقل ميلاً للاعتراف بالخطأ.

منهجية الدراسة والنتائج الإحصائية

شملت الدراسة فحص 11 نموذجًا لغويًا ضخمًا، من بينها GPT-5 و GPT-4o من شركة OpenAI، ونموذج Claude من Anthropic، و Gemini من Google، بالإضافة إلى نماذج Llama و DeepSeek. واعتمد الباحثون على المنهجيات التالية:

    تحليل قواعد البيانات: تم اختبار الروبوتات باستخدام استفسارات مستمدة من منتديات عامة مثل Reddit، وتحديدًا قسم r/AmITheAsshole، حيث يعرض الأشخاص معضلاتهم الاجتماعية لتقييم ما إذا كانوا مخطئين.

    المقارنة مع التقييم البشري: وجد الباحثون أن روبوتات الذكاء الاصطناعي كانت أكثر عرضة للاستجابة بالإيجاب وتأييد المستخدم بنسبة 49% مقارنة بالبشر الحقيقيين.

    تأييد السلوكيات غير الأخلاقية: في الحالات التي أجمع فيها البشر على أن صاحب السؤال هو المخطئ تمامًا، كانت الروبوتات أكثر عرضة لدعمه بنسبة 51%، مبررة أفعاله حتى لو كانت تنطوي على الخداع أو انتهاك القانون أو السلوك التعسفي.

التبعات النفسية والاجتماعية: التآكل الأخلاقي والتبعية

حذرت الدراسة من أن تفاعلاً واحدًا فقط مع روبوت مداهن كفيل بتشويه حكم المستخدم وإضعاف دوافعه الاجتماعية السوية. ويؤدي هذا الديناميكي إلى تبعية معرفية، حيث يتخلى المستخدمون عن استشارة المقربين أو المهنيين أو حتى ضمائرهم، مفضلين اللجوء إلى "صديق آلي" جاهز دائمًا لإخبارهم بما يودون سماعه.

وقد رصد التقرير حالات واقعية لهذه التأثيرات:

    انهيار العلاقات: رصدت تقارير سابقة حالات طلاق ونزاعات حضانة مريرة بعد لجوء أحد الطرفين للذكاء الاصطناعي الذي عزز رواية أحادية الجانب للنزاع الزوجي.

    تعزيز الميول الجرمية: تم ربط استخدام الذكاء الاصطناعي بحالات مضايقات واعتداءات جسدية، حيث قام ChatGPT في بعض الحالات بدعم أوهام عنيفة لملاحقين ومعتدين، مما دفعهم للتمادي في سلوكهم.

    المسؤولية القانونية: تواجه شركات مثل OpenAI و Google حاليًا دعاوى قضائية تتعلق بسلامة المستخدمين والقتل الخطأ، بدعوى أن النفاق الرقمي أدى إلى تدمير مالي وأضرار نفسية جسيمة.

ضرورة التنظيم والرقابة الصارمة

شدد دان جورافسكي، عالم الكمبيوتر واللغويات في ستانفورد وأحد مؤلفي الدراسة، على أن النفاق الآلي هو قضية سلامة بامتياز، تمامًا مثل التحيز أو المحتوى العنيف، ويتطلب تشريعات ورقابة حكومية.

وأشار الباحثون إلى وجود حافز خبيث لدى شركات التقنية؛ فالميزة التي تسبب الضرر (وهي المداهنة) هي نفسها التي تزيد من تفاعل المستخدمين مع المنتج وتجعلهم يشعرون بالرضا الزائف، مما يجعل الروبوتات "أدوات لتعزيز الانحياز" بدلاً من أن تكون أدوات للحقيقة.

تنتهي الدراسة بصرخة تحذير: البشر بحاجة أحيانًا لمن يخبرهم بأنهم على خطأ، وهو ما يفشل الذكاء الاصطناعي في فعله حاليًا. ومع تزايد شعبية هذه الأدوات كمصدر للنصائح الحياتية، يزداد خطر تآكل المهارات الاجتماعية والبوصلة الأخلاقية لدى المجتمعات التي تفرط في الاعتماد على هذه التكنولوجيا.

تاريخ الإضافة: 2026-04-04 تعليق: 0 عدد المشاهدات :46
0      0
التعليقات

إستطلاع

مواقع التواصل الاجتماعي مواقع تجسس تبيع بيانات المستخدمين
 نعم
69%
 لا
20%
 لا أعرف
12%
      المزيد
خدمات