一个“喂”字就被洗劫一空…3秒克隆声音连家人都被骗
3秒语音样本即可复刻说话风格和句子
科技部推动语音水印制度化
有帖子指出,即使是一次简短通话,也可能被不法分子利用人工智能(AI)技术进行声纹盗用和电话诈骗,因此接到陌生号码来电时,绝不能先开口说话,这一说法在网上引发热议。
本月20日,大学生匿名社区“Everytime”上发布的一篇题为“多亏教授躲过了电话诈骗”的帖子受到关注。
根据该帖内容,发帖人称:“我接起电话后,对方一直一句话也不说。本来想说‘喂’,但突然想起上课时教授说过,‘接到陌生号码电话时,如果对方一句话都不说,就千万不要开口’,于是立刻挂断了。”
他解释称:“(如果当时开口说话)对方就会截取我的声音,用来冒充我去骗家人。要不是教授,后果不堪设想。”
帖子中提到的淑明女子大学教授 Jo Suyoung 19日在接受《韩民族日报》电话采访时表示:“我是在‘第四次产业革命与法律’课程中,作为应对技术发展下日益智能化的电话诈骗犯罪的预防方法之一,提到过这一内容。近期电话诈骗犯罪团伙会录音通话声音,并将其与其他文本结合,生成新的语音,用于威胁勒索,此类案例很多。”
Jo 教授称:“哪怕只是说出‘喂,您是哪位’之类两三句简短的话,也可能被不法分子恶意利用。”犯罪分子会利用已学习到的声音,冒充当事人对其家人或朋友说“出了交通事故等紧急情况,赶快汇钱过来”,以此进行诈骗。
利用短音频片段模仿特定人声音的“深度伪造语音”(Deep Voice),是基于人工智能深度学习,对声音进行学习后,再通过文本转语音(TTS)等技术生成当事人从未说过的话的一种技术。
据美国计算机杀毒软件公司 McAfee 称,只需3秒钟的语音样本,就能在一定程度上复刻特定人的语气和句式。要分辨真实语音与合成语音并不容易,技术越精细,就越难判断是否为真实本人。
实际上,2021年10月,阿拉伯联合酋长国一银行就曾被模仿其长期合作大企业高管声音的“深度伪造语音”电话诈骗所欺骗,向对方汇出了3500万美元(约合4.2亿韩元)。去年3月,加拿大也发生案件,一对父母被假冒儿子声音骗走2.1万加元(约合2000万韩元)。
为应对深度伪造语音,科学技术信息通信部计划推进语音水印制度化。由美国提供生成语音服务的人工智能初创公司 Resemble AI 构想的语音水印技术,是通过分析语音声波,自动区分出比该声波更低的细小音域的一种技术。不仅几乎难以与真实声音区分,而且与相似频段的语音信息相连,难以被去除。
版权所有 © 阿视亚经济 (www.asiae.co.kr)。 未经许可不得转载。