[전쟁과 경영]까다로운 AI일병, '스카이넷' 되지 않게 하려면

지나친 효율 중시…'터미네이터' 우려
AI 참모 시스템 연구, 세심한 주의 필요

최근 미국 공군의 인공지능(AI) 시험운영 책임자인 터커 해밀턴 대령이 영국 왕립항공학회(RAeS)의 학술회의에서 시뮬레이션 시험 도중 AI 무인기(드론)가 자신을 조종하는 지휘관을 공격하는 결과가 나왔다고 발표하면서 전 세계에 큰 충격을 안겨줬다.


너무나도 커진 파장에 해밀턴 대령과 미 공군은 해당 훈련이 실제 시뮬레이션 훈련은 아니었고 가설에 근거해 진행한 ‘사고실험(thought experiment)’이며 군 외부에서 이뤄진 것이라고 급히 해명했지만, AI 공포심 확산을 막기에는 역부족이었다는 평가다.

해당 사고실험에서 AI 드론은 자신의 작전 수행의 최종 결정권을 가진 지휘관이 자신의 임무수행을 방해하는 요소라 인식하자 가차없이 지휘관이 있는 통제탑을 공격했다고 한다. AI에 입력된 작전 목표들이 상충하는 과정에서 발생할 수 있는 작전상 오류와 인격이 없는 AI의 단독작전이 얼마나 위험한지 경고하는 차원에서 시행된 실험이었던 셈이다.


[이미지출처=로이터연합뉴스]

[이미지출처=로이터연합뉴스]

원본보기 아이콘

실제 시뮬레이션 실험이 아닌 사고실험이었음에도 전 세계 각 군에서는 상당히 긴장하는 모양새다. 이미 AI 기술이 여러 나라의 군사 분야에도 적용되기 시작했기 때문이다. 자율주행 전투기, 탱크 등을 넘어 AI 기술은 현재 AI 작전참모 프로그램을 만드는 부문까지 상당히 발전하고 있다.


이런 AI가 적군도 아닌 아군을 공격할 가능성이 있다면 기술개발에 큰 장애물이 될 수밖에 없다. 특히 각종 공상과학(SF) 영화 속에서 등장하는 인간을 공격하는 AI의 이미지가 대중적으로도 크게 각인된 상태에서 공포심 확산을 막기 어렵기 때문이다. 벌써부터 1990년대 전 세계적으로 흥행했던 영화 ‘터미네이터(Terminator)’에서 핵전쟁을 일으켜 인류를 멸망시킨 AI ‘스카이넷’ 같은 프로그램이 등장하는 것이 아니냐는 우려까지 나온다.

물론 지금 기술개발 수준에서 스카이넷 같은 극단적인 AI가 등장할 가능성은 없지만, 실제 전쟁에서 AI의 활용빈도가 높아질수록 일선 지휘관들의 고민도 깊어질 것으로 예상된다. 인간 병사와 달리 AI는 전장에서 발생할 수 있는 모든 변수들과 그에 따라 발생하는 각종 윤리적인 문제를 고민하지 않고 가장 효율적인 방향으로 움직일 가능성이 높기 때문이다.


예를 들어 적진에 포위된 200명의 아군을 구출하기 위해 100명의 아군이 희생돼야 하는 작전을 편다고 했을 때 인간 지휘관은 쉽사리 결정을 내리기 어렵지만, AI는 별다른 고민없이 자신에게 입력된 최상위 과제를 수행하기 위해 바로 움직일 수 있다. 아군 보호를 위한 민간인 피해 역시 얼마든지 발생시킬 수 있다. 반대로 이런 까다로운 결정사안을 지휘관들이 모두 AI에 판단을 맡기고 책임을 전가할 여지도 생기게 된다.


이러한 여러 문제를 해결해나가는 것이 앞으로 AI 병사가 보편화될 미래 군대의 숙제가 될 전망이다. 특히 우리나라를 비롯해 AI 참모시스템을 개발하고 있는 국가들에서는 더욱 세심한 관리가 필요하다. AI 작전참모가 자율적 판단에 따라 주요 분쟁 지역에서 소규모 국지분쟁이라도 일으킬 경우, 그것이 대대적인 전면전으로 비화될 가능성도 있기 때문이다. 영화 터미네이터에 나온 전 세계적인 핵전쟁이 그저 영화 속 상상력에 그치기를 바라본다.





이현우 기자 knos84@asiae.co.kr

<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>