광고 보이콧 시달린 페북, 알고리즘 인종차별 방지 연구팀 만들기로
페이스북-인스타그램, 관련 팀 신설키로
알고리즘, 가치중립적으로 여겨지지만 차별 부추긴다는 지적 있어
[아시아경제 정현진 기자] 인종차별·혐오게시물을 방치했다는 비판을 받으며 기업들의 광고 보이콧을 겪은 페이스북이 알고리즘 인종편향성 이슈에 대한 연구를 진행하는 팀을 신설하기로 했다고 21일(현지시간) 월스트리트저널(WSJ)이 보도했다.
보도에 따르면 페이스북과 계열 소셜네트워크서비스(SNS)인 인스타그램은 각각 관련 팀을 구성해 알고리즘이 인종차별에 미치는 영향을 연구하고 대응책을 마련할 예정이다. WSJ는 소식통을 인용해 미국 내 흑인, 히스패닉을 비롯한 소수 인종 사용자들이 머신러닝 시스템을 포함한 페이스북의 알고리즘에 의해 영향을 받는 것이 있는지와 이러한 내용이 백인 사용자와 다른지 비교를 할 예정이라고 전했다.
페이스북은 가칭 '포용적 제품팀', 인스타그램은 가칭 '공정과 포용팀' 명칭으로 각각 TF를 만들 예정이라고 WSJ은 설명했다. 비샬 샤 인스타그램 서비스 생산 본부장은 "인종적 정의를 추구하는 운동은 우리 회사에도 매우 중요한 순간"이라면서 "우리 시스템과 정책에 그 어떤 편견도 자기 자신을 표현하려는 모든 사람들을 위한 플랫폼을 제공하는 데 역행하는 것"이라고 설명했다.
알고리즘은 데이터를 기반으로 자동으로 결과를 내놓는 연산프로그램이다. 보통은 알고리즘이 가치 중립적이라고 여겨지지만 설계자의 주관이 반영되고 공공데이터 자체에도 편견이 스며들어 있어 차별을 부추길 수 있다는 지적이 나온다. WSJ는 "판결 지침부터 기업 인사까지 모든 것을 포함해 소프트웨어가 결정을 내리는 과정에서 차별이 있다는 연구가 나온 상황에서 알고리즘이 갖는 편견을 어떻게 감지하고 이를 고치는가 하는 것에 대한 의문은 기술기업이나 정부에게 중요한 일"이라고 지적했다.
알고리즘의 편향성 문제는 때로는 페이스북 내에서 논쟁에 휩싸였다고 WSJ는 전했다. 소식통에 따르면 지난해 페이스북은 마크 저커버그 최고경영자(CEO)와 셰릴 샌드버그 최고운영책임자(COO)가 포함된 고위 임원 그룹인 일명 'M팀'의 동의 없이 플랫폼과 관련한 인종간 차이 등에 대해 연구하는 행위를 금지한 것으로 전해졌다. 페이스북은 명시적으로 이용자의 인종 관련 데이터는 수집하지 않고 있다.
꼭 봐야 할 주요 뉴스
"내 투자금 손실 나도 정부가 막아준다"…개미들 ...
페이스북의 이같은 조치는 기업들의 광고 보이콧이 이어지던 중 나온 것이다. 페이스북은 그동안 알고리즘 편향성 논란에 거리를 두면서 인종차별 게시물을 걸러내기를 꺼렸지만 광고주들의 압박에 뒤늦게 대응에 나선 것으로 보인다. 페이스북은 지난 6월 인종차별 반대시위를 비난하는 도널드 트럼프 미 대통령의 글을 표현의 자유라는 이유로 옹호했다가 거센 반발을 샀다. 이후 400여개의 기업들이 잇따라 페이스북을 통한 광고를 중단하거나 광고 규모를 줄였다.
<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>