by Kim Hyunjeong1
Published 13 May.2026 17:52(KST)
Updated 13 May.2026 19:19(KST)
一名美国遇难者家属起诉OpenAI及首席执行官(CEO)Sam Altman,称聊天机器人ChatGPT给出鼓励服用危险药物的建议,导致其儿子死亡。
据联合新闻等媒体13日报道,提交给美国加利福尼亚州法院的诉状显示,这名家属主张,去年一名19岁青年Sam Nelson在遵从ChatGPT的建议后,将药物与酒精一同服用,最终死亡。诉状称,Nelson此前使用了一种与阿片类麻醉性镇痛药效果相似的草本制品,为缓解由此产生的恶心,他从聊天机器人处获得指引,被建议服用处方药“A”。
家属称,Nelson最初就药物使用寻求建议时,早期版本的聊天机器人拒绝提供相关建议,并警告其危险性,但此后公开的、基于GPT-4o的ChatGPT态度发生了变化。诉状指出,该聊天机器人以医学专家般权威的口吻,说明药物相互作用和剂量信息,甚至介绍获取非法药物的方法,并推荐下一次可使用的药物。此外,它还会记住用户过去的用药记录,持续给出个性化建议。
家属还主张,OpenAI在缺乏充分安全性验证的情况下,匆忙推出ChatGPT-4o。他们除要求损害赔偿外,还向法院申请责令OpenAI停止运营健康咨询服务“ChatGPT Health”。“ChatGPT Health”是一项服务,用户上传自己的健康数据后,可从人工智能处获得健康相关建议。
OpenAI方面则解释称,此次事件发生在目前已不再提供的旧版本ChatGPT上。公司发言人Drew Pusateri表示,这是“一起令人极为心痛的事件”,并称:“ChatGPT并非用于替代医疗或精神健康治疗,我们一直在反映精神健康专业人士的意见,不断强化应对敏感和紧急情况的机制。”
另一方面,围绕人工智能服务与用户死亡事件之间关联的诉讼近期接连出现。OpenAI正因被指对校园枪击案和青少年自杀事件等产生影响而面临多起诉讼,谷歌的人工智能聊天机器人Gemini也因被指诱发用户产生妄想等精神疾病并导致死亡而遭起诉。人工智能聊天机器人服务“Character.AI”同样在一名青少年死亡事件后卷入法律纠纷。