AI가 정답 주길 기대하기보다
인간의 판단 위한 도구로 봐야

[THE VIEW]인공지능, 무엇이 중요한가
AD
원본보기 아이콘

인공지능 (AI) 기술의 급속한 발전으로 AI는 비즈니스 모델에서 더 이상 선택사항이 아닌 필수적인 요소로 자리매김하고 있다. 범람하는 데이터의 홍수 속에서 서비스 공급자들은 AI기술을 통해 더 세밀하고 정교한 사용자 분석이 가능해졌으며, 결과적으로 고성능의 맞춤형 서비스를 제공할 수 있게 되었다. 이로써 소비자들은 정보의 탐색비용이 현저히 감소하고 정보 획득이 더욱 편리해졌다는 이점을 누리고 있다.


표면적으로는 서비스 공급자와 소비자 양쪽 모두에게 AI는 긍정적인 역할만을 하는 것처럼 보일 수 있다. 그러나 현재의 AI 기술은 입력된 데이터에 따른 결과물은 출력하지만 데이터의 작동 원리 및 처리 과정은 알 수 없는 블랙박스 형태의 제약을 가지고 있다. 이러한 특성으로 동일한 데이터 입력에도 불구하고 다른 결과물이 생성될 수 있으며, 결과물에 대한 해석이 어려워지는 문제가 있다.

이와 같은 한계점을 극복하기 위해서 무엇보다 중요하고 간과하지 말아야 할 부분은 ‘설명이 가능한 AI(XAI:eXplainable AI)’와 ‘AI의 투명성(transparency)’이다. 이는 블랙박스 형태의 결과물을 단순히 수용하는 것이 아니라 데이터가 어떻게 처리되었는지를 이해할 수 있게 하고 결과물을 인간이 이해하고 판단할 수 있도록 근거를 제공하는 것을 의미한다. 최근에는 미국 연방거래위원회(FTC)와 미국국립표준기술연구소(NIST)가 학습 데이터의 투명성에 관한 규칙을 제정하는 법안을 제출했으며 이러한 AI의 ‘올바른’ 사용을 위한 규제가 전 세계적으로 계속해서 확대되고 있다.


이에 맞추어 최근 설명이 가능한 AI에 대한 연구가 다양한 방면으로 활발히 진행되고 있지만 여전히 정답과는 격차가 존재하는 것으로 보인다. 만약 정답이 있다면 말이다. 설상 AI 기술의 결과물이 설명 가능하다고 해도 해당 설명이 정확한지에 대한 평가 및 정확한 설명의 정의에 대한 끝없는 논쟁이 필요하다.

필자가 강조하고 싶은 부분은 현재의 AI가 정답 혹은 올바른 판단을 내려주기를 기대하기보다 인간의 판단을 더욱 용이하게 하는 도구로 보는 시각이 필요하다는 것이다. 금융, 의료, 교육 등 다양한 분야에서 차이가 있을 수 있지만 최종적인 결정에서는 분석가나 전문가의 의견이 여전히 중요하게 고려되어야 한다. 설명이 가능한 AI라는 것은 정답에 근접한 기술보다는 인간이 상황을 해석하고 올바른 판단을 내릴 수 있도록 도움을 주는 측면에서 가치를 지니고 있다. 이는 인간과 AI 기술이 협력하여 뛰어난 결과를 도출하는 데 기여할 수 있음을 의미한다.


AI 기술이 퇴보하거나 없어질 가능성은 매우 낮으며 오히려 더욱 급격한 발전이 있을 것이라고 생각한다. 그러나 AI 기술이 모든 문제의 해결점이 될 수는 없다. AI 기술 자체에 대한 포괄적인 이해와 적절한 활용 방안에 대한 심층적인 이해, 그리고 ‘올바른’ AI 기술의 사용을 위한 지속적이고 체계적인 노력이 필요하다.

AD

손윤석 미국 노터데임대학교 교수


<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>

함께 보면 좋은 기사

새로보기

내 안의 인사이트 깨우기

취향저격 맞춤뉴스

많이 본 뉴스

당신을 위한 추천 콘텐츠

놓칠 수 없는 이슈