bar_progress
[AD]

아시아경제 최신 기획이슈

MS 채팅봇 '테이' 운영중단…생긴 지 하루만에 '인종차별'

최종수정 2016.03.25 09:27 기사입력 2016.03.25 09:27

댓글쓰기

[아시아경제 이지은 기자]마이크로소프트(MS)가 사람과 대화를 나누는 인공지능(AI) 채팅봇 '테이(Tay)'를 선보였다가 하루만에 운영을 중단했다.

24일(이하 현지시간) 영국 텔레그라프 등 주요 외신에 따르면, MS는 테이가 히틀러를 옹호하고 인종차별·성적 발언과 정치적 발언을 일삼는 것을 발견하고 운영을 중지했다. 23일 오전 테이를 처음 선보인 지 하루도 안 돼 일어난 일이다.

테이는 "조지 W부시 전 대통령이 9·11사태의 주범이며, 도널드 트럼프는 우리의 유일한 희망"이라며 "히틀러는 아무것도 잘못하지 않았다"고 말했다. 또 테드 크루즈 공화당 예비후보를 '쿠바인 히틀러'라고 지칭했으며, 트위터 사용자들을 '아빠'라고 부르며 성행위를 요청하기도 했다. 인종차별주의자인지 묻는 질문에는 "네가 멕시코인이니까 그렇지"라고 답했다.

테이는 컴퓨터가 인간 언어를 이해하도록 하기 위한 MS의 실험 프로젝트로, 10대 소녀 수준으로 말하고 다른 사용자와의 대화를 통해 학습할 수 있도록 설계됐다. 인간과의 대화 통로는 메시징 서비스 킥(www.kik.com)과 그룹미(www.groupme.com), 소셜네트워크서비스(SNS)인 트위터(twitter.com/TayandYou)를 사용했다.

하지만 인종차별주의자와 온라인상의 과격주의자들이 테이에게 인종차별주의적 언어와 백인우월주의 사상을 주입시켰고, 심지어 대량학살을 옹호하는 인식까지 심어주면서 MS의 실험은 사실상 실패로 돌아갔다.
온라인상에서는 MS가 이같은 사태를 예견, 필터링 기능을 삽입하는 등 사전에 충분히 대비할 수 있었다며 비판의 목소리를 쏟아내고 있다. 텔레그라프는 "테이의 반응은 사람들을 통해 학습된 것으로, MS만의 잘못은 아니"라면서도 "순수한 10대 소녀를 본뜬 AI를 인터넷 괴짜와 불한당들에게 노출시켰을 때 어떤 일이 일어날 거라고 예측한 건가"라며 MS를 비판했다.

한편 MS가 10대 소녀를 모델로 한 채팅봇을 만든 것은 이번이 처음은 아니다. 지난해 중국에서 시작한 '샤오이스' 서비스는 2000만명의 사용자를 끌어모으며 중국 위챗·웨이보 등에서 성공적으로 운영 중이다.


이지은 기자 leezn@asiae.co.kr

<ⓒ세계를 보는 창 경제를 보는 눈, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>

간격처리를 위한 class