“现任拜登政府无能”批评成热门话术
泛滥假照片充斥社交媒体令其不堪其扰

在飓风“赫林”重创美国佛罗里达等南部地区、造成巨大损失之际,一张据称是在飓风中遭遇水灾的小女孩的照片在社交媒体和网络社区等平台上广泛传播。然而随后这张照片被证实是由人工智能(AI)生成的图像,引发争议。



6日(当地时间),《纽约邮报》报道称,在社交媒体上引发热议的一张照片其实是由人工智能生成的假图像。该照片内容是:最近在飓风灾害中,一名身穿救生衣的小女孩坐在船上,怀里抱着小狗哭泣的画面。

《Yoke Post》报道称,近期在社交网络服务(SNS)上引发热议的一张照片其实是由人工智能生成的虚假图像。照片内容是一名在最近飓风灾害中身穿救生衣的小女孩,在船上抱着小狗哭泣的画面。<span class="caption-source">图片来源=X</span>

《Yoke Post》报道称,近期在社交网络服务(SNS)上引发热议的一张照片其实是由人工智能生成的虚假图像。照片内容是一名在最近飓风灾害中身穿救生衣的小女孩,在船上抱着小狗哭泣的画面。图片来源=X

View original image

这张照片主要被批评现任拜登政府的一方用作攻击素材,他们分享由人工智能生成的图片,以此指责政府的无能。分享这张照片的人当中,还包括犹他州联邦参议员Mike。当该照片被证实为假图后,他随即删除了相关内容。目前,社交平台X(原推特)已将该照片标注为由人工智能生成的图像。近期,社交媒体上为政治目的而生成的假照片被当作真实内容传播的情况日益增多。此前,曾有被说明为“加沙地带平民遇难者”的假照片在网络上扩散。

在AI热潮下,生成图像导致虚假信息传播激增

一方面,人们对人工智能带来便利生活充满期待,另一方面,对其引发的问题也愈发担忧。此前在去年5月左右,谷歌与杜克大学研究团队分析了事实核查媒体Snopes自1995年至2023年11月间核查过的13.6万件案例,结果显示,去年3月,关于方济各教皇身穿突出腰线的白色长款羽绒服的假照片在社交媒体上传播的时间点,成为一个重要的转折点。这张照片当时在社交媒体和网络社区上被大量分享,浏览量达数百万次。“教皇的时尚品味”“雇了新造型师的教皇”等话题在全球网友间引发热议。尤其是,这张照片后来被证实是由生成式人工智能“Midjourney”制作的,在此之前几乎无人怀疑其真实性,足见其自然逼真。此事曝光该照片为“假”的之后,利用人工智能生成的假图片在社交媒体上被当作真实内容反复传播的情况激增。

去年5月前后,谷歌和杜克大学研究团队分析了从1995年经事实核查媒体Snopes确认真伪以来,直到2023年11月的13.6万例事实核查案例,结果认为,去年3月在社交媒体上扩散的、教皇方济各身穿突出腰部线条的白色长款羽绒服的假照片,成为一个重要转折点。 [图片出处=Reddit供图]

去年5月前后,谷歌和杜克大学研究团队分析了从1995年经事实核查媒体Snopes确认真伪以来,直到2023年11月的13.6万例事实核查案例,结果认为,去年3月在社交媒体上扩散的、教皇方济各身穿突出腰部线条的白色长款羽绒服的假照片,成为一个重要转折点。 [图片出处=Reddit供图]

View original image

更重要的是,随着人工智能生成图像的使用不断增加,社交媒体本身也不堪其扰。大量博人眼球的名人假图泛滥,造成严重名誉侵害,尤其是色情内容的生成与扩散,已成为备受关注的敏感议题。若恶意利用基于人工智能、将视频、图像和声音进行合成的高级操纵技术“深度伪造”(Deepfake),其造成的危害难以想象。最关键的是,即便人们知道它是假的,也很难仅凭肉眼加以辨别,因此这种做法是在公然欺骗大众。随着制作、传播色情内容的行为不断增加,要求加强与人工智能相关法律监管的呼声也日益高涨。今年年初,美国世界级女歌手Taylor Swift的脸部照片被合成到恶意深度伪造色情视频中并在网上扩散;3月,又出现了前总统Donald Trump身穿囚服、被警察包围押走的照片在网络上传播的情况。


本报道由人工智能(AI)翻译技术生成。

版权所有 © 阿视亚经济 (www.asiae.co.kr)。 未经许可不得转载。

不容错过的热点