정보의 정확성·신뢰성 심각
투명성·보안 문제도 중요
명확한 가이드라인 필요
생성형 인공지능(AI)은 다양한 산업에서 업무 생산성을 높이는 데 혁신적인 도구로 자리 잡아가고 있다. 특히 마케팅, 소프트웨어 개발, 고객 서비스 등 분야에서 효율성을 높이는 데 사용되며 기업들 사이에서 빠르게 채택되고 있다. 예를 들어 미국의 깃허브가 개발한 코파일럿(Copilot)은 소프트웨어 개발자가 반복적인 코드를 작성하는 시간을 줄여 더 중요한 작업에 집중할 수 있도록 돕고 있다. 코파일럿이 코딩 작업 시간을 절약하고 생산성을 높여 주는 방식은 AI가 보조 도구로 가지는 잠재력을 잘 보여준다.
하지만 AI의 도입이 빠르게 이루어지면서 문제점들도 함께 드러나고 있다. 제일 심각한 문제점은 AI가 제공하는 정보의 정확성과 신뢰성에서 비롯된다. 잘못된 정보나 편향된 데이터를 기반으로 결과를 생성하는 경우 사용자가 이를 걸러내기 어려워 잘못된 결정을 내릴 위험이 있다.
최근 한 글로벌 기업은 AI 기반 보고서 작성 도구를 사용해 고객 보고서를 자동으로 생성했으나 잘못된 통계가 포함된 채 보고서가 제출되어 신뢰성 문제가 크게 불거진 사례가 있다. 이는 AI가 제공하는 정보를 사전에 검토하고 교정하는 작업이 반드시 필요하다는 점을 보여준다.
또 다른 문제는 생성형 AI에 대한 지나친 의존성이다. AI가 추천하는 방향을 무비판적으로 따르게 되면 중요한 의사결정 과정이 오히려 약화될 수 있다. 만약 기업이 AI에 지나치게 의존해 사람의 판단력과 창의성을 발휘하지 않게 된다면 조직의 경쟁력이 약해질 위험이 있다. 이를 방지하기 위해 일부 기업은 AI 도입과 함께 사내 교육을 강화하여 AI와 인간의 협업 방식을 최적화하려 하고 있다.
일례로 영국의 한 광고 회사는 직원들에게 AI 도구를 사용할 때도 창의적 판단력과 비판적 사고를 발휘할 수 있도록 교육을 실시하고 있다. 이렇게 AI가 제공하는 정보를 그대로 받아들이기보다는 보완적 역할을 하도록 하는 방침을 도입하는 것이다.
이와 관련해 AI 도입에서 가장 중요한 과제 중 하나는 AI의 투명성과 보안 문제다. 생성형 AI는 대량의 데이터를 학습하는 과정에서 개인정보나 민감한 정보에 취약할 수밖에 없다. 예를 들어 AI가 학습 데이터에서 개인정보를 무단으로 수집하거나 외부로 유출할 위험이 있기에 데이터 보호 정책과 투명한 관리가 필수적이다. 유럽연합(EU)은 이러한 문제에 대응해 AI 규제법을 도입하며 AI 시스템의 투명성과 데이터 보호 기준을 강화하고 있다. 이러한 규제는 글로벌 시장에도 큰 영향을 미치고 있으며, 다른 국가들도 유사한 법적 틀을 준비하고 있다.
AI를 통해 업무 효율성을 극대화하려면 AI 활용 방식에 대한 명확한 가이드라인이 필요하다. AI의 결정을 무조건 수용하기보다는 인간의 판단력과 비판적 사고가 결합된 협업 모델이 중요해질 것이다. AI의 장점만을 지나치게 강조하기보다는 AI를 책임감 있게 사용하며 사람과 AI가 상호 보완적으로 협력할 수 있는 방안을 마련해 나가는 것이 앞으로 기업과 사회가 함께 고민해야 할 과제라고 할 수 있다.
손윤석 미국 노터데임대 교수
꼭 봐야할 주요뉴스
17년전 노래가 왜…소녀시대 '다시 만난 세계' 新... 마스크영역<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>