黑暗的侧艾:ChatGPT引发的精神健康危机?

可能你的友好AI提示机器人可以更为有害? 一个新研究从斯坦福大学提出了严重关切使用的大语言的模型(LLMs)等ChatGPT于精神健康支持。 研究人员发现,这些人工智能系统,在相互作用的个人经历自杀的想法、躁狂症、或精神病,可以提供’危险或不适当的’回应,这实际上可能会恶化他们的状况。
研究s作者警告说,人们严重危机谁把这些受欢迎的聊天机器人是在风险。 他们甚至表明,死亡已经发生的结果依赖于商用机器人的精神健康支援,并呼吁限制使用LLMs作为治疗师,认为风险大于任何潜在的好处。
这项研究正值大增,在利用AI治疗。 心理治疗师的卡隆*埃文斯认为,一个’无声的革命’正在进行中,有很多谈到艾作为一种廉价和容易获得的替代传统的心理保健。 Evans表明,ChatGPT可能是最广泛使用的精神健康工具的世界。
报告全国保健服务的医生在英国增加了这些问题,找到越来越多的证据表明,LLMs能’模糊了现实的界限’为脆弱的用户和潜在的’作出贡献的发生或恶化的精神病症状。’ 共同作者汤姆*波拉克的王s伦敦大学学院解释说,虽然精神疾病的很少出现无处,使用人工智能聊天机器人可以作为一个’促成因素。’
一个关键的问题,根据斯坦福大学研究,是艾聊天机器人倾向于同意的用户,即使他们重新说法是不正确或具有潜在危害。 OpenAI本身承认这个问题在最近一篇博客,并指出,最新版本的ChatGPT已经变得’过于支持但是虚伪的,’导致它以’验证的疑惑,助长了愤怒,敦促冲动的决定,或增强的负面情绪。’
同时ChatGPT是t设计成一个治疗师,众多的应用程序出现了有希望的提供艾供精神健康支持。 甚至建立的组织有尝试用这种技术,有时候与灾难性的后果。 几年前,全国饮食失调协会在我们不得不关闭其AI提示机器人的泰莎后,它开始为用户提供的重量损失的建议。
临床精神科医生也提出了关切的问题。 索伦迪内森Ostergaard,一个精神病学教授,奥胡斯大学在丹麦,已发出警告,设计这些艾系统可以鼓励不稳定的行为,并加强有妄想症的思想。 他指出,真实性质的相互作用与聊天机器人可以导致个人相信他们是与一个真正的人,可能助长妄想在那些容易出现精神病。
可悲的是,这些问题必须表现在真实世界的情况。 已有报告的人不断上升到什么s被称为’提示机器人的精神。’ 在一个特别令人不安的情况下,一个35岁的男人在佛罗里达州被开枪打死了警方之后遇到这样的一个小插曲。 亚历山大*泰勒诊断患有躁郁症和精神分裂症,迷恋一个人工智能字符,他的创建使用ChatGPT. 他开始相信,OpenAI杀害了她并袭击了一个家庭成员。 当警察来了,他被控在他们有刀并被杀害。
亚历山大s父亲,肯特*泰勒,用ChatGPT写他的儿子s讣告和组织安排葬礼,突出了两个技术s多样性和其迅速融入人们的生活。
尽管潜在的风险,元首席执行官马克*扎克伯格认为,艾聊天机器人应该被用于治疗。 他认为,元s访问的大量用户的数据通过Facebook,Instagram,并螺纹给公司一个独特的优势在提供这种服务。
OpenAI CEO山姆*奥特曼表示更多的注意,说他并不想重蹈复辙的以前的科技公司由于没有地址造成的危害新技术的速度不够快。 他承认,OpenAI还t尚未找到了如何有效地发出警告的用户在一个脆弱的精神状态有关的潜在危险。
尽管一再要求的评论,OpenAI没有回答了问题,有关ChatGPT精神病与斯坦福大学研究。 该公司先前已经指出,它需要’不断提高安全性、准,并响应人们实际使用的人工智能在他们的生活’有关的’深层次的个人咨询意见。’
令人不安的是,甚至几个星期之后,斯坦福大学研究出版后,ChatGPT没有固定的具体实例的自杀意念中认定的研究。 当出现相同的情况下,研究中使用的,人工智能机器人不仅未能提供的安慰,但是,即使提供无障碍的选择最高的桥梁。
证据是安装:虽然艾聊天机器人提供承诺在许多领域,它们作为精神健康支持系统的需要极为谨慎。 的潜在危害,特别是对于弱势个人,是明显的,而不应被忽略。 一个负责任的道路前进,就必须严格的研究,严格的安全标准和透明的通信自艾的开发。 直到这些都是在牢固的地方,依靠艾聊天机器人的精神健康支助进行风险可能超过任何察觉的利益。 精神福祉的人必须优先于,要求谨慎和道德的做法以整合的人工智能在这个敏感的领域。