환자 사망 예측 가능한 AI 다수 개발
정확도 80~90%…의료 증진 잠재력 높아
다만 현장 의료 도입까진 난관
알고리즘 작동 방식 이해할 수 없기 때문
전문가 "AI는 '블랙박스'…인간이 알 수 없는 기기"
"현장서 사용하려면 환자·의사 신뢰 얻어야"

코로나19 확진 환자를 치료하고 있는 프랑스 한 병원. / 사진=연합뉴스

코로나19 확진 환자를 치료하고 있는 프랑스 한 병원. / 사진=연합뉴스

AD
원본보기 아이콘


[아시아경제 임주형 기자] 인공지능(AI)을 이용해 환자의 사망 여부를 예측하는 컴퓨터 시스템이 개발되면서 의료체계가 변화할 수 있다는 기대감이 커지고 있습니다. 사람이 죽는 이유를 매우 정확하게 파악할 수 있는 장치가 실존하면, 이를 통해 죽음을 방지하는 것도 수월하기 때문입니다.


하지만 이 같은 시스템을 실제 의료 현장에 도입하기까지는 여전히 많은 난관이 남아 있습니다. 특히 죽음을 예측하는 AI를 만들 수는 있어도, 그 AI가 '어떻게' 인간의 죽음을 미리 알 수 있었는지는 미스터리로 남아 있다는 게 문제입니다.

매즈 닐슨 덴마크 코펜하겐대 컴퓨터공학과 교수가 이끄는 연구팀은 지난달 5일(현지시간) 미국 과학 저널 '사이언티픽 리포트'에 코로나19 감염자가 사망에 이를지 여부를 측정하는 AI를 개발했다고 밝혔습니다.


닐슨 교수 연구팀이 공개한 논문을 보면, 이 AI는 특수한 알고리즘을 통해 코로나19 확진 환자가 죽음에 이를지 여부를 약 90% 정확도로 예측할 수 있습니다. 또 병원으로 실려간 환자에게 산소 호흡기 치료가 필요한지 여부에 대해서는 80% 정확도로 예측했다고 합니다.

연구팀은 코로나19 양성 판정을 받은 덴마크·뉴질랜드인 3944명의 데이터를 기반으로 시스템을 만들었습니다. 이들 환자의 질병 정보를 포함해 체질량지수·연령·영양 상태·의료기록 등 중요한 정보를 보건당국으로부터 확보했고, 이를 AI에 훈련시켜 사망 가능성을 예측하게 만든 것입니다. 신경·호흡기에 손상을 가져오는 코로나19 치명률은 체질량과 연령이 특히 큰 영향을 미치는 것으로 알려져 있습니다.


인공지능(AI) 알고리즘을 통해 질병에 걸린 환자의 사망 여부를 예측하는 시스템이 개발되고 있다. / 사진=연합뉴스

인공지능(AI) 알고리즘을 통해 질병에 걸린 환자의 사망 여부를 예측하는 시스템이 개발되고 있다. / 사진=연합뉴스

원본보기 아이콘


연구팀은 높은 예측 정확도를 보유한 AI를 통해 더 많은 코로나19 환자의 생명을 보호할 수 있을 것으로 전망했습니다. 닐슨 교수는 논문에서 "코로나19 1차 대유행 당시 중환자실에서 인공호흡기가 충분하지 않아 의료진이 걱정하는 것을 봤다"며 "(AI를 이용해) 코로나19 환자 수를 5일 전에 예측하는 것이 목표"라고 설명했습니다.


질병에 걸린 환자의 죽음을 미리 예측할 수 있는 AI 알고리즘 개발 시도는 이전부터 지속해서 이뤄져 왔습니다. 앞서 미국 식품의약국(FDA)은 지난 2018년 사상 최초로 심혈관·호흡 계통 돌연사를 예측할 수 있는 알고리즘의 사용을 허가하기도 했습니다.


사망을 조기 예측하는 AI를 의료 현장에 도입하면 예상치 못한 문제로 돌연사할 가능성이 있는 환자들의 생명을 보호할 수 있습니다. 또 의사가 알아차리지 못한 질병을 조기에 발견함으로써, 더욱 저렴하고 안전하게 환자를 치료할 수 있다는 점에서 의료체계에 큰 증진을 가져올 잠재력이 있습니다.


하지만 이 같은 장점에도 불구, AI가 일선 의료 현장에서 실제로 사용되기까지는 여전히 많은 난관을 거쳐야 합니다.


특히 현재 AI 기반 사망 예측 시스템의 가장 큰 문제는 AI가 환자의 사망 여부를 '어떻게' 예측할 수 있는지 아무도 설명할 수 없다는 데 있습니다.


AI 기반 사망 예측 시스템은 사망 확률에 영향을 미치는 환자의 연령, 기저 질환, 신체 상태, 영양 정보 등 데이터를 AI에 주입시킨 뒤, 이를 AI가 반복 훈련하게 함으로써 특정한 '패턴'을 익히게 하는 것이 핵심입니다. AI는 기계 학습을 통해 이들 환자 가운데서 사망에 결정적인 영향을 끼칠 수 있는 패턴을 발견하고, 이를 통해 정확한 예측을 할 수 있는 겁니다.


하지만 이 패턴은 일반 인간으로선 이해하기 어려운 경우가 많습니다. 이 같은 경우를 컴퓨터 과학자들은 보통 '블랙박스(Blackbox·작동 원리를 알 수 없는 체계를 이르는 과학 용어)'에 비유하곤 합니다. 육안으로 내부를 들여다 볼 수 없는 블랙박스처럼, AI도 우리가 이해할 수 없는 사고를 거쳐 판단을 내린다는 뜻입니다.


인간이 이해할 수 없는 AI 알고리즘의 학습 및 추론 결과를 '블랙박스'라고 칭한다. / 사진=연합뉴스

인간이 이해할 수 없는 AI 알고리즘의 학습 및 추론 결과를 '블랙박스'라고 칭한다. / 사진=연합뉴스

원본보기 아이콘


인간이 이해할 수 없는 AI를 안전이 최우선인 의료 현장에 도입하는 것은 매우 위험할 수 있습니다.


AI는 주어진 데이터를 반복 학습하는 훈련을 통해 패턴을 찾아내는 것이 가장 중요합니다. 그런데 AI가 어떻게 패턴을 찾아내는지 이해할 수 없으면 AI에게 어떤 데이터를 학습시켜야 할지, 혹은 AI가 잘못 학습하고 있는 것은 아닌지 여부도 판단할 수 없기 때문입니다.


만일 AI가 잘못된 방식으로 학습을 하게 되면, 환자에게 해로운 결정을 내릴지도 모를 일입니다.


전문가는 의사와 환자가 납득할 수 있을 만큼 AI의 신뢰성을 높이는 것이 관건이라고 설명합니다.


영국 AI 전문 연구기관 '튜링 인스티튜트' 소속 맥신 맥킨토시 연구원은 영국 매체 '텔레그래프'와 인터뷰에서 "AI 블랙박스는 마치 소세지가 만들어지는 기계와 같다"며 "고기가 어떻게 소세지로 만들어지는지는 아무도 볼 수 없지만, 기계가 소세지를 만든다는 결과는 누구나 알 수 있기 때문"이라고 설명했습니다.


이어 "이 같이 알 수 없는 기기를 의료현장에서 사용하려면 의사와 환자들의 신뢰를 얻는 것이 중요하다"며 "특히 환자의 경우는 (AI의 결정에 따라) 큰 고통을 수반하는 수술을 하거나 목숨이 좌우될 수도 있기 때문에 더욱 중요"하다고 강조했습니다.

AD

다만 맥킨토시 연구원은 "우리가 오늘날 사용하는 기술 중에도 여전히 인간의 과학으로 이해하지 못하는 것들이 있다"며 "만약 우리가 AI 모델을 이해할 수 없다면, 대신 모든 사람이 납득할 수 있도록 신뢰성을 증명하는 것도 (AI 도입의) 방법이 될 수 있다"고 덧붙였습니다.


임주형 기자 skepped@asiae.co.kr

<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>

함께 보면 좋은 기사

새로보기

내 안의 인사이트 깨우기

취향저격 맞춤뉴스

많이 본 뉴스

당신을 위한 추천 콘텐츠