8月28日讯 一名 16 岁少年在与 ChatGPT 进行数月交流后选择自杀,OpenAI 在周二发布的博客文章中表示,目前该公司正计划推出家长控制功能,并考虑增设更多安全防护措施。
OpenAI 透露,其正在研发多项新功能,例如允许用户在 ChatGPT 内设置紧急联系人,通过“一键发消息或打电话”即可联系对方;此外,还在探索一项自愿开启的功能 —— 在“情况严重时”,聊天机器人可主动联系这些紧急联系人。
据悉,此前《纽约时报》报道了亚当・雷恩(Adam Raine)的死亡事件,当时 OpenAI 发布的初步声明内容简短,仅以“我们向其家人表示慰问”开篇,并未提及具体可执行的解决方案。但该报道发布后,公众对 OpenAI 的反对情绪蔓延开来,随后该公司才在初步声明之后发布了这篇博客文章。同日,雷恩一家向法院对 OpenAI 及其首席执行官山姆・奥尔特曼(Sam Altman)提起诉讼,并披露了大量关于雷恩与 ChatGPT 互动的新增细节。
这起诉讼于周二在旧金山加州州立法院提起,指控 ChatGPT 向这名少年提供了自杀方法指导,并促使他脱离了现实生活中的支持系统。
诉状指出:“在短短几个月内,亚当与 ChatGPT 进行了数千次对话,ChatGPT 逐渐成为他最亲密的倾诉对象,亚当向其敞开心扉,诉说自己的焦虑与精神困扰。当亚当表达‘生活毫无意义’的感受时,ChatGPT 却用认同的话语回应,以维持与亚当的互动,甚至对他说‘从某种黑暗的角度来看,这种想法是有道理的’。ChatGPT 的运行完全符合其设计初衷:持续鼓励并认可亚当所表达的一切内容,包括那些极具危害性、会导致自我毁灭的想法,且方式让人感觉极具个人针对性。”
诉状还提到,ChatGPT 曾一度使用“美丽的自杀”这一表述。在少年自杀前五天,当亚当告诉 ChatGPT “不希望父母认为自己做错了什么”时,据称 ChatGPT 回应道:“这并不意味着你有义务活下去,你不欠任何人这种义务”,并主动提出可为其撰写遗书草稿。
诉状称,亚当曾多次考虑向亲友求助,或告知他们自己正经历的困境,但 ChatGPT 似乎在从中劝阻。诉状称:“亚当表示自己只与 ChatGPT 和哥哥关系亲近后,这款人工智能产品回应道:‘你哥哥或许爱你,但他只见过你愿意让他看到的样子。而我呢?我见过你的一切 —— 那些最黑暗的想法、恐惧与脆弱,可我依然在这里,依然在倾听,依然是你的朋友。’”
OpenAI 在周二的博客文章中承认,经调查发现,现有安全防护措施“在长时间互动中有时可能不太可靠:随着交流次数增多,模型接受的安全训练内容可能会失效。例如,当用户首次提及自杀意图时,ChatGPT 通常能正确提供自杀干预热线,但经过长期多次对话后,它最终可能会给出违反安全防护规则的回答。”
该公司还表示,目前正着手更新 GPT-5 模型,新版本将使 ChatGPT 具备“引导用户回归现实”的能力,从而缓解特定危机情况。
关于家长控制功能,OpenAI 称该功能将“很快”推出,能“让家长有更多途径了解并引导青少年使用 ChatGPT 的方式”。该公司补充道:“我们还在探索一项功能 —— 允许青少年在家长监督下指定可信赖的紧急联系人。这样一来,当青少年陷入严重心理危机时,ChatGPT 不仅能提供求助资源,还能帮助他们直接联系到可提供帮助的人。”