300만명이 본 '헐리우드 배우 동영상'은 가짜…남성 표적은 처음
제이콥 엘로디 '딥페이크' 영상 확산해
남성 연예인 표적 삼은 건 이번이 처음
유명 할리우드 배우 제이콥 엘로디(26)가 자신의 얼굴을 도용한 딥페이크 음란 동영상 때문에 피해를 보고 있는 것으로 전해졌다.
19일(현지시간) 미 NBC 방송은 엘로디의 얼굴 이미지를 합성한 딥페이크 음란 동영상이 이틀 전부터 엑스(X) 등 사회관계망서비스(SNS)를 통해 확산하고 있다고 전했다. 누적 조회수는 이미 300만회를 넘어선 것으로 알려졌다.
동영상의 원본은 브라질에 거주하는 한 19세 크리에이터라고 한다. 그는 2년 전 자기 모습을 촬영한 영상을 게재했는데, 누군가가 엘로디의 얼굴을 합성한 것이다. 이에 대해 이 크리에이터는 "말 그대로 내 영상이었다"며 "딥페이크가 갈수록 점점 더 소름 끼친다"고 썼다.
NBC는 "딥페이크 동영상은 노골적으로 성적인 장면을 담고 있다"며 "영상에 드러난 몸은 엘로디의 모습과 다르다"고 전했다. 엘로디는 NBC의 논평 요청에 아직 답변하지 않았다.
한편 딥페이크 영상이 남성 배우를 표적으로 삼은 건 이번이 처음인 것으로 알려졌다. 앞서 딥페이크 음란 동영상 피해자는 주로 여성 연예인, 배우였다고 한다. 지난 1월에는 세계적 스타 테일러 스위프트가 딥페이크 영상의 피해자가 돼 경각심을 준 바 있다. 당시 스위프트의 영상도 주로 엑스에서 퍼졌다.
엑스 운영진은 실제 인물을 합성한 딥페이크 영상을 규정 위반으로 고지한다. 실제 엘로디의 영상 16건 중 하나는 "이 게시물은 엑스의 규정을 위반한 것일 수 있다"는 꼬리표가 붙어 있으며, 링크나 공유도 차단됐다. 그러나 여전히 게시 상태를 유지하고 있으며, 조회수는 2만3000회를 넘어섰다고 NBC는 지적했다.
꼭 봐야 할 주요 뉴스
"뭐 먹지? 집에서 밥 해먹기 귀찮아"…초고가 아파...
딥페이크는 인공지능(AI) 기술인 딥러닝(Deep learning)과 가짜(Fake)를 합친 합성어다. AI를 이용해 더욱 정밀하게 만든 합성 영상으로, 일부 딥페이크 영상은 너무 정교해 현실과 착각하기 쉽다.
<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>