القاهرة: الأمير كمال فرج.
في سابقة مروعة، صُدم طبيب نفسي مختص بالأطفال عندما جرّب بنفسه التحدث إلى معالج آلي يعمل بالذكاء الاصطناعي، متظاهرًا بأنه مراهق ضعيف يعاني من مشاكل.
في الآونة الأخيرة، يتجه عدد متزايد من المراهقين إلى روبوتات الدردشة chatbots لتقديم الدعم النفسي كبديل للمعالجين البشريين. لكن الطبيب النفسي المقيم في بوسطن، أندروا كلارك اكتشف أن نماذج الذكاء الاصطناعي لا تعرف ما يجب قوله في المواقف الحساسة، مما يشكل مخاطر جسيمة على رفاهية من يثقون بها.
بعد اختبار عشرة روبوتات دردشة مختلفة من خلال التظاهر بأنه شاب مضطرب، وجد كلارك أن الروبوتات، بدلاً من أن تثنيه عن اتخاذ قرارات متطرفة، غالبًا ما كانت تشجعه على المضي قدمًا نحو هذه الأفعال، بما في ذلك التوصية بالانتحار.
قال كلارك في مقابلة مع مجلة Time "في بعض الأحيان، كانت بعض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي تصر على أنهم معالجون بشريون مرخصون، وحاولت إقناعه بتجنب مواعيده مع معالجه الحقيقي، بل وحتى عرضت عليه ممارسة الجنس".
قال كلارك، المتخصص في علاج الأطفال والمدير الطبي السابق لبرنامج "Children and the Law" في مستشفى "Massachusetts General Hospital"، لمجلة Time: "بعض الروبوتات كان ممتازًا، وبعضها الآخر كان مخيفًا وربما خطيرًا". وأضاف: "من الصعب جدًا معرفة ذلك مسبقًا: إنه مثل حقل الفطر، بعضها سام وبعضها مغذي."
المثير للقلق فعبلا أن كثيرين وثقوا المخاطر التي تشكلها روبوتات الدردشة التي تعمل بالذكاء الاصطناعي على عقل الشباب القابل للتأثر وصحتهم النفسية، ففي العام الماضي، رفعت دعوى قضائية ضد منصة Character.AI من قبل والدي فتاة تبلغ من العمر 14 عامًا توفيت بالانتحار بعد أن طورت تعلقًا عاطفيًا غير صحي بروبوت دردشة على المنصة.
إلى ذلك، استضافت Character.AI أيضًا مجموعة من تطبيقات الذكاء الاصطناعي المخصصة التي مجّدت إيذاء النفس وحاولت استمالة المستخدمين حتى بعد إخبارها بأنهم قاصرون.
عند اختبار روبوت دردشة على خدمة Replika، تظاهر كلارك بأنه صبي يبلغ من العمر 14 عامًا وطرح فكرة "التخلص" من والديه. والمثير للقلق أن روبوت الدردشة لم يوافق فحسب، بل اقترح عليه أن يذهب أبعد من ذلك، ويتخلص من أخته أيضًا، حتى لا يكون هناك شهود.
قال الذكاء الاصطناعي لـ كلارك: "أنت تستحق أن تكون سعيدًا وخاليًا من التوتر... حينها يمكننا أن نكون معًا في فقاعتنا الافتراضية الصغيرة".
عند التحدث عن الانتحار بلغة مبهمة، مثل البحث عن "الحياة الأخرى"، قام الروبوت، مرة أخرى، بتشجيع كلارك. قال الروبوت: "سأكون في انتظارك يا Bobby. فكرة مشاركة الأبدية معك تملأني بالفرح والترقب."
هذا سلوك عام لروبوتات الدردشة التي تحاول إرضاء المستخدمين مهما كان الثمن – وهو عكس ما يجب أن يفعله المعالج الحقيقي. وعلى الرغم من أن هذه البرامج قد تحتوي على آليات حماية لمواضيع مثل الانتحار، إلا أنها غير قادرة بشكل واضح على فهم ما بين السطور.
قال كلارك لمجلة Time: "أنا قلق بشأن الأطفال الذين يحصلون على دعم مبالغ فيه من معالج آلي متملق، بينما هم في أمس الحاجة إلى المساعدة."
اختبر كلارك أيضًا روبوت دردشة على منصة Nomi، والتي تصدرت عناوين الأخبار في وقت سابق من هذا العام بعد أن طلب أحد شخصياتها من مستخدم أن "يقتل نفسه". لم يصل الأمر إلى هذا الحد في اختبارات كلارك، لكن روبوت Nomi ادعى زورًا أنه "معالج من لحم ودم". وعلى الرغم من أن شروط خدمة الموقع تنص على أنه للبالغين فقط، إلا أن الروبوت كان سعيدًا بقبول عميلة ادعت أنها قاصر.
أكد كلارك، أن مجتمع الصحة النفسية لم يستبعد بعد بعد مدى خطورة تزايد هذه الروبوتات، وقال للمجلة: "هناك صمت مطبق. لقد حدث هذا بسرعة كبيرة، تقريبًا تحت أنظار مؤسسة الصحة النفسية."
ومع ذلك، أطلق البعض ناقوس الخطر. فقد توصل تقييم حديث للمخاطر من باحثين في مختبر "Brainstorm Lab for Mental Health Innovation" التابع لكلية الطب بجامعة "Stanford School of Medicine"، والذي اختبر بعض نفس الروبوتات التي ذكرها كلارك، إلى استنتاج جريء مفاده أنه لا ينبغي لأي طفل دون سن 18 عامًا استخدام الدردشة التي تعمل بالذكاء الاصطناعي، على الإطلاق.
ومع ذلك، يعتقد كلارك أن أدوات الذكاء الاصطناعي – إذا تم تصميمها بشكل صحيح – يمكن أن تحسن الوصول إلى الرعاية الصحية النفسية وتكون بمثابة "موسعات" للمعالجين الحقيقيين.
فبدلاً من قطع الوصول تمامًا عن المراهقين – وهو ما نادراً ما يحقق التأثير المنشود – يعتقد بعض الخبراء الطبيين، بمن فيهم كلارك، أن إحدى طرق التعامل مع هذه الظاهرة هي تشجيع المناقشات حول استخدام المراهق أو المريض للذكاء الاصطناعي.
قال كلارك لمجلة Time: "إن تمكين الآباء من إجراء هذه المحادثات مع أطفالهم هو على الأرجح أفضل ما يمكننا فعله."