bar_progress

아시아경제 최신 기획이슈

디지털 시대의 그림자 '딥페이크'의 공포[요즘사람]

최종수정 2020.05.02 09:00 기사입력 2020.05.02 09:00

댓글쓰기

방탄소년단 인터뷰 영상에 다른 사람의 모습을 입힌 모습. [사진=유튜브 화면캡처]

방탄소년단 인터뷰 영상에 다른 사람의 모습을 입힌 모습. [사진=유튜브 화면캡처]


[아시아경제 김종화 기자]최근 n번방 사태로 '딥페이크' 기술이 주목받고 있습니다. 과학기술이 발달하면서 동영상에 등장하는 인물을 다른 사람의 얼굴로 감쪽같이 바꿀 수 있는 기술입니다. 좋은 방향으로 사용했으면 좋았을텐데 이 기술로 음란물을 만들어 심각한 사회문제가 됐습니다.


딥페이크 기술은 지난해 8월 중국의 한 업체가 영화 속 배우의 얼굴을 일반인 얼굴로 대체하는 애플리케이션 '자오'를 출시하면서 널리 알려지기 시작했습니다. 자오는 출시되자 엄청난 인기를 얻었지만 동시에 사생활 침해라는 거센 반발을 불러 일으켰습니다.

과학기술이 발달하면서 기계도 학습을 할 수 있게 됩니다. 정확한 결정을 내리기 위해 제공된 방대한 데이터를 스스로 학습하며 진화하는 '머신러닝(기계학습)'이 개발자에 의해 더 발전, 심화단계인 딥러닝으로 더욱 발전하게 되지요. 이 딥러닝을 활용한 기술이 바로 딥페이크입니다.


딥러닝과 'fake'를 합성한 단어지요. 딥러닝의 ‘생성적 적대 신경망’을 통해 영상·음향을 합성하는 기술입니다. 합성 대상의 표정, 습관, 음성 등을 입력하면 AI(인공지능)가 스스로 학습하기 때문에 실제와 다름없는 인물을 만들 수 있습니다. 컴퓨터그래픽(CG)을 적용하면 입 모양, 행동, 얼굴 생김새까지 자연스럽게 표현하기 때문에 진짜인지 가짜인지 구분하기가 어렵습니다.


딥페이크 기술은 처음 등장할 때 뉴스아나운서, 드라마, 영화, 교육, 마케팅 등 많은 영역에서 기대를 모았지만, 첫 히트작이 음란물이었다는 점에서 '얼굴 바꾸기 놀이'보다는 '범죄'로 악용되고 있어 문제시 되는 것입니다.

딥페이크 기술 악용은 전 세계적으로 심각한 상황입니다. 유명 배우 스칼렛 요한슨과 엠마왓슨도 합성된 음란물로 고통을 겪었고, 한국 여성 연예인들의 25% 가량도 표적이 됐다고 합니다. 영국에서는 에너지 회사 최고 경영자의 목소리를 합성해 직원에게 약 3억원의 자금을 이체하게 만든 사건도 발생했습니다.


영화의 특수효과 정도로 사용되는 기술로 알고 있다면 오산입니다. 온라인에 공개된 무료 소스코드와 머신러닝 알고리즘만으로 누구든 진짜처럼 보이는 가짜 동영상을 만들 수 있는 시대입니다. 딥페이크 기술이 악용돼 사회적 파장이 커지자 국제사회는 대책을 수립하고 나섰습니다.


미국 정부는 국방부 고등방위계획국(DARPA)을 통해 딥페이크를 탐지하는 미디어 포렌식 연구를 추진하고, 페이스북은 딥페이크 영상탐지 기술연구에 1000만 달러를 투자했습니다. 구글은 지난해 9월 자신들이 개발한 딥페이크 동영상 데이터베이스 3000세트를 공개하기도 했습니다.


또 커뮤니티인 레딧은 딥페이크와 관련 서브레딧을 종료했고, 트위터는 딥페이크 콘텐츠를 일반 성인 콘텐츠와 분리해 배제하기로 했으며, 그래픽 소프트웨어업체 어도비는 뉴욕타임스, 트위터와 함께 사진과 동영상, 뉴스 같은 콘텐츠의 원저작자와 원본을 찾을 수 있는 디지털 워터마크를 도입하기도 했습니다.


한국은 어떨까요? 시민사회단체를 중심으로 딥페이크를 활용한 범죄를 직접적으로 다루는 법의 필요성이 제기됐고, 국회에 딥페이크 음란물에 대한 직접 처벌하는 내용을 담은 성폭력처벌법 개정안이 다수 발의된 상태입니다.


그러나 국회가 지난달 개정한 성폭력처벌법에는 딥페이크 음란물을 제작·유포한 사람만 처벌할 뿐 소지한 사람은 처벌 대상에서 빠져 논란이 되고 있습니다. 법개정을 논의하는 당시 회의에서 국회의원들이 내뱉은 발언은 심각한 수준이었습니다.

우리 국회는 여전합니다. 다음 국회는 지금보다 나아질 수 있기를 기대합니다. [사진=유튜브 화면캡처]

우리 국회는 여전합니다. 다음 국회는 지금보다 나아질 수 있기를 기대합니다. [사진=유튜브 화면캡처]


정점식 미래통합당 의원은 "자기만족을 우해 이런 영상을 가지고 나혼자 즐기는 것까지 갈(처벌할) 것이냐"라고 발언했고, 김인겸 법원행정처 차장은 "자기는 예술작품이라고 생각하고 만들 수 있다", 김오수 법무부 차관은 "청소년이나 자라나는 사람들은 자기 컴퓨터에서 그런 짓 자주 한다"는 등의 발언이 쏟아졌습니다.


개인 소지 목적의 영상 제작까지 처벌하는 것은 과하다는 주장인 것입니다. 반면 자신도 모르는 사이 성착취 영상의 피해자가 될 수 있다는 여성들의 우려는 묻혔습니다. 이런 문제의식이 n번방 사태를 만들지 않았을까요? 자신도 모르는 사이에 피해자가 돼 있다면? 생각만 해도 끔찍한 현실입니다.


여성만이 아니라 남성도 피해자가 될 수 있습니다. 그들의 가족이나 지인이 그런 피해를 당한 경험이 있다면, 그들의 발언이 달라지지 않았을까요? 피해자들의 목소리는 한결 같습니다. "왜 그런 영상물을 소지해야 하는지 이해가 안간다. 소지하고 있는 것도 똑같은 범죄다. 모두 처벌해야 한다"는 입장입니다.


법의 수준도 중요하지만, 사회적 거름망도 필요합니다. 근본적으로 이런 콘텐츠를 유포하는 포털사이트 등에서 자발적 탐지 기술과 차단기술을 하루 빨리 개발할 필요가 있습니다. 악용된 딥페이크가 방치될 경우 우리가 읽거나 보는 것을 믿을 수 없는 세상이 오게 됩니다. 그 전에 강력한 규제가 필요하지 않을까요?




김종화 기자 justin@asiae.co.kr

<ⓒ경제를 보는 눈, 세계를 보는 창 아시아경제(www.asiae.co.kr) 무단전재 배포금지>

간격처리를 위한 class