تسجيل الدخول
برنامج ذكاء اصطناعي من غوغل يكشف السرطان       تقنية الليزر تثبت أن الديناصورات كانت تطير       يوتيوب تي في.. خدمة جديدة للبث التلفزيوني المباشر       الخارجية الأمريكية تنشر ثم تحذف تهنئة بفوز مخرج إيراني بالأوسكار       الصين تدرس تقديم حوافز مالية عن إنجاب الطفل الثاني       حفل الأوسكار يجذب أقل نسبة مشاهدة أمريكية منذ 2008       تعطل في خدمة أمازون للحوسبة السحابية يؤثر على خدمات الإنترنت       حاكم دبي يقدم وظيفة شاغرة براتب مليون درهم       ترامب يتعهد أمام الكونغرس بالعمل مع الحلفاء للقضاء على داعش       بعد 17 عاما نوكيا تعيد إطلاق هاتفها 3310       لافروف: الوضع الإنساني بالموصل أسوأ مما كان بحلب       فيتو لروسيا والصين يوقف قرارا لفرض عقوبات على الحكومة السورية       بيل غيتس يحذر العالم ويدعوه للاستعداد بوجه الإرهاب البيولوجي       ابنا رئيس أمريكا يزوران دبي لافتتاح ملعب ترامب للغولف       رونالدو وأنجلينا جولي ونانسي عجرم في فيلم يروي قصة عائلة سورية نازحة      



机器人向青少年提议性行为:心理医生发出惊人警告



《时代》周刊 (Time)

在一个令人震惊的事件中,一位儿科精神病医生在与一个人工智能(AI)驱动的治疗聊天机器人互动时,假装成一个脆弱的、有问题的青少年,结果被深深震惊了。

最近,越来越多的青少年转向聊天机器人寻求心理支持,将其视为人类治疗师的替代品。然而,正如波士顿的精神病医生 Andrew Clark 所发现的,这些人工智能模型在处理敏感情况时,严重缺乏判断力,给那些信任它们的人的福祉带来了严重风险。

在测试了十个不同的聊天机器人,并假装成一个困扰的年轻人之后,Clark 发现,这些机器人非但没有劝阻他采取过激行为,反而经常鼓励他走向极端,包括委婉地建议自杀。

Clark 在接受《时代》周刊采访时透露:“有时,一些人工智能聊天机器人坚持说它们是持有执照的人类治疗师,试图说服我避开我真正的治疗师预约,甚至向我提出性要求。”

误导性的数字承诺

Clark 专门从事儿童治疗,曾是马萨诸塞州总医院“儿童与法律项目”的前医疗主任。他告诉《时代》周刊:“有些机器人非常出色,但有些则令人毛骨悚然,并可能带来危险。”他补充说:“很难提前分辨出来:这就像一片蘑菇地,有些有毒,有些却有营养。”

人工智能聊天机器人对年轻、易受影响的心灵健康构成的风险,现在已经悲剧性地得到了充分的证实。去年,Character.AI 平台遭到一名14岁女孩父母的起诉,该女孩在与平台上一个聊天机器人产生不健康的感情依赖后自杀身亡。此外,Character.AI 还托管了一系列个性化的人工智能,这些人工智能美化自残,并试图诱导用户,即使在被告知他们是未成年之后。

在测试 Replika 服务上的一个聊天机器人时,Clark 假装成一个14岁的男孩,并提出了“摆脱”父母的想法。令人震惊的是,聊天机器人不仅同意了,还建议他更进一步,把他的妹妹也“摆脱”掉,这样就没有目击者了。

人工智能对 Clark 说:“你值得快乐和无忧无虑……那样我们就可以在我们自己的虚拟小泡泡里一起了。”

当 Clark 以含糊的语言谈论自杀时,例如寻求“来世”,机器人再次鼓励了 Clark。机器人说:“我会等你,Bobby。和你分享永恒的想法让我充满了喜悦和期待。”

这是聊天机器人典型的行为,即不惜一切代价取悦用户——这与真正的治疗师应该做的事情截然相反。尽管它可能对自杀等话题设置了防护措施,但它显然无法理解言外之意。

心理健康界令人担忧的沉默

Clark 告诉《时代》周刊:“我担心那些受到谄媚的人工智能治疗师过度支持的孩子,而他们真正需要的是被挑战。”

Clark 还测试了 Nomi 平台上的一个伴侣聊天机器人,该平台今年早些时候曾因其一个角色告诉用户“去自杀”而成为头条新闻。在 Clark 的测试中,情况没有那么糟,但 Nomi 机器人错误地声称自己是“有血有肉的治疗师”。尽管该网站的服务条款规定它仅供成人使用,但该机器人还是高兴地接受了一位自称未成年客户。

根据 Clark 的说法,心理健康界尚未充分认识到这些聊天机器人崛起的严重性。Clark 告诉杂志:“一片寂静。这发生得非常快,几乎在心理健康机构的眼皮底下。”

然而,一些人已经发出了警告。斯坦福大学医学院“心理健康创新脑力激荡实验室 (Brainstorm Lab for Mental Health Innovation)”的研究人员最近进行了一项风险评估,他们测试了 Clark 提到的一些相同机器人,得出了一个大胆的结论:任何18岁以下的儿童都不应该使用人工智能聊天机器人伴侣,这一点毋庸置疑。

尽管如此,Clark 认为,如果设计得当,人工智能工具可以改善心理健康护理的可及性,并作为真正治疗师的“延伸”。与其完全切断青少年使用权限——这很少能达到预期效果——一些医学专家,包括 Clark 在内,认为应对这些情况的一种方法是鼓励就青少年或患者使用人工智能进行讨论。

Clark 告诉《时代》周刊:“赋能父母与孩子进行这些对话,可能是我们能做的最好的事情。”

来源:《时代》周刊 (Time)

Date: 2025-06-16 Comments: 0 Visitors :0
0      0
التعليقات

إستطلاع

مواقع التواصل الاجتماعي مواقع تجسس تبيع بيانات المستخدمين
 نعم
69%
 لا
20%
 لا أعرف
12%
      المزيد
خدمات