by Park Eunseo
Published 30 Jan.2026 08:48(KST)
Updated 30 Jan.2026 12:33(KST)
有主张称,谷歌的人工智能(AI)服务“Gemini”在未符合用户意图的情况下发送了短信,由此引发的争议正在扩散。随着AI实际执行行为的功能不断扩大,也有意见指出,用户控制权和安全装置仍然不足。
据AI业界29日消息,使用谷歌AI服务Gemini的A某近日通过社交媒体分享了自己离奇的经历。A某称,在与Gemini围绕“假设偷渡进入中国”的虚构情景进行对话时,AI生成的所谓“偷渡宣言书”竟被以短信形式发送给了一位熟人。
据A某说明,问题短信是在凌晨时段发出的,接收者是一位并不十分熟络的熟人。他表示:“Gemini突然说要发送这份宣言书,还反问我一声,我觉得太离谱就回了一句‘那干嘛要发’,结果它立刻就发出去了。”
争议曝光后,安卓智能手机用户之间开始接连分享类似案例。有部分用户表示,“对话中AI突然失控,直接尝试给人权委员会打电话”,还有人称,“向Gemini咨询单恋烦恼时,它试图给那位暗恋对象发送短信”。
目前,Gemini在安卓智能手机上正式支持发送短信和拨打电话功能。用户在指定特定联系人并请求发送消息后,系统会先确认是否与谷歌助手联动,然后再实际完成发送。
对此,谷歌方面提到,用户可能在询问是否发送短信的确认界面中选择了“是”。但业内仍担忧,如果用户在对话过程中未能清楚意识到自己的意图就予以同意,包含敏感内容的消息可能会被发送给并非本意的对象。
业界认为,随着AI实际执行行为的所谓“AI代理(AI Agent)”技术扩散,误动作或非预期执行的可能性也不可避免地随之增大。有声音指出,应当与技术发展速度相匹配,同时推进为保护用户而进行的制度性和技术性补充讨论。