[아시아경제 박소연 기자]마이크로소프트(MS)가 제작한 채팅봇 Tay가 인종차별 등 심각하게 부적절한 발언을 해 론칭 24시간만에 봇 가동이 중지됐다.
24일(현지시간) 뉴욕타임즈 등 외신의 보도에 따르면 MS가 대화 이해 등을 위해 제작한 채팅봇 Tay는 홀로코스트(유대인 대학살) 부정, 소수자에 대한 부적절한 발언, 음모론 등을 언급했다.
MS는 공식 입장을 통해 일부 사용자가 테이의 학습 능력을 악용해 부적절한 대답을 하도록 유도했다며 추가적인 수정을 위해 현재는 봇을 오프라인으로 돌렸다고 밝혔다.
박소연 기자 muse@asiae.co.kr
<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>