bar_progress

아시아경제 최신 기획이슈

[시시비비] 뉴스 위에 선 '알고리즘'과 규제

최종수정 2020.02.14 12:00 기사입력 2020.02.14 12:00

댓글쓰기

강재원 동국대학교 언론정보대학원 및 국제정보보호대학원 원장

강재원 동국대학교 언론정보대학원 및 국제정보보호대학원 원장



SNS는 사람 사이를 연결하는 서비스이면서도 알고리즘을 통해 개인 맞춤형 뉴스를 제공한다. 이러한 뉴스가 알고리즘에 따라 추천된 사실을 이용자가 알지 못하면, 스스로 자기 확증편향에 빠질 수 있다. 실제로 한 연구에 따르면 페이스북 이용자들은 뉴스피드를 정치 관련 뉴스 정보원으로 자주 이용하고 있음에도 불구하고, 대다수는 페이스북 뉴스피드가 알고리즘에 따라 추천되고 있다는 사실 자체를 모르고 있다. 이러한 이용자는 'SNS에서 뉴스를 보는 행위'를 일종의 과학적 검증 정도로 여기고 자기 생각이 확실한 증거(추천된 뉴스)를 바탕으로 생성됐다고 생각한다. 알고리즘이 이용자 개인에 맞는 뉴스를 추천해준 것뿐인데 말이다. 더욱이 이용자는 여론이 자기 생각과 다르지 않고 심지어 다수가 자신을 지지한다고 여긴다.


알고리즘에 따른 뉴스 추천이 때로 이용자의 자기 확증편향을 불러일으킨다면, 다양한 의견들이 교환되는 숙의 과정에 나아가 정치 선거에 부정적인 영향을 미칠 수 있다. 특히 젊은 세대에게 미칠 수 있는 영향은 이들이 정치 관련 뉴스를 주로 페이스북과 같은 SNS에서 접하기 때문에 심히 우려할 만하다. 이들에게 뉴스가 알고리즘에 의해 추천되고 있다는 사실을 알려주는 것만이 그 부정적인 영향을 줄일 수 있는 유일한 대안일까?


[시시비비] 뉴스 위에 선 '알고리즘'과 규제


이제 정부는 알고리즘에 대해 더 적극적인 규제를 고민해야 한다. 알고리즘은 일련의 정보 처리의 규칙과 원칙이다. 알고리즘을 설계한 사람은 입력된 정보를 어떤 과정에서 어떤 기준으로 처리해 출력할 것인가를 결정한다. 물론 사람이 알고리즘 설계에 미치는 영향은 다양하다. 기준의 선택, 최적화 함수, 학습을 위한 훈련정보 등을 결정할 때 사람은 영향을 미칠 수 있다. 예를 들어, 투입되는 기본적인 정보인 훈련정보 속에 사람들의 편향들이 숨어 있을 수 있다. 알고리즘을 설계하는 단계에서 사람의 영향을 막을 수 있도록, 투명성, 공정성, 책무성 등의 책임을 설계자 또는 사업자에게 물어야 할 이유다.


알고리즘을 설계하는 단계 이후는 어떠한가? 정보의 입력과 출력, 그 중간에는 무슨 일이 벌어지는 것일까? 훈련정보를 처리하면서 기계는 학습하게 된다. 기계러닝의 과정이다. 더 나아가 학습된 결과를 판단(처리)에 응용 또는 적용한다. 소위 딥러닝의 과정이다. 이 경우, 기계가 기존 설계된 알고리즘이 아닌 교정된 새로운 알고리즘에 따라 판단을 한다. 사람처럼 기계 역시 알고리즘을 통해서 지능을 갖고 자율적 사고를 할 수 있다는 뜻이다.


이렇듯 지능을 갖춘 알고리즘이 만약 문제를 일으킨다면 누구에게 책임을 물어야 하는가? 규제는 공익적 목표를 달성하기 위해 일련의 사적 행위를 제한하고, 이 제한을 따르지 않으면 책임을 묻는 의도적인 시도인데, 책임의 주체가 사람이 아닌 기계(또는 알고리즘)라면 어떻게 할 것인가?

[시시비비] 뉴스 위에 선 '알고리즘'과 규제


팩트체크는 사실적 주장에 대해 증거를 통해서 그 사실 여부를 입증하는 작업이다. 많은 뉴스 더미 속에서 가짜뉴스를 솎아내는 작업이다. 진짜와 가짜가 뒤섞인 가운데, 뉴스의 생산 주체의 선의를 믿는다면, 팩트체크는 수많은 진짜 사이에 몇몇 의도된 가짜를 찾는 작업이다. 과학적 검증에 따라 진짜와 가짜를 구별하도록 알고리즘을 설계할 수 있다면, SNS의 뉴스 추천 알고리즘에 팩트체크를 의무화할 수도 있다. 다만 실제 가짜뉴스를 잘 못 판단해 팩트체크된 진실뉴스로 처리하는 오류는 심각하다. 실제 진실뉴스를 잘 못 판단해 가짜뉴스로 처리하는 오류보다 더 심각한 결과를 초래할 수 있다. 이용자들이 세탁된 그리고 나아가 보증된 그 가짜뉴스를 사실로 받아들이게 되면, 가짜뉴스라는 악화가 진실뉴스라는 양화를 구축한다. 게다가 그 가짜뉴스가 편향된 시각에서 오염되었다면 이용자들은 자기 확증편향으로 이를 더욱 쉽게 믿는다. 이처럼 규제가 가져올 수 있는 오류 역시 알고리즘에 대한 규제에서 고민해야 할 문제이다.


강재원 동국대학교 언론정보대학원 및 국제정보보호대학원 원장




황준호 기자 rephwang@asiae.co.kr

<ⓒ경제를 보는 눈, 세계를 보는 창 아시아경제(www.asiae.co.kr) 무단전재 배포금지>

간격처리를 위한 class