대화형 챗봇 ‘챗GPT’가 내놓는 의료 상담의 만족도가 의사를 능가한다는 분석이 나왔다. 품질과 공감도 면에서 의사보다 낫다는 것이다.


1일 미국 샌디에이고 캘리포니아대(UCSD)에 따르면 퀄컴연구소 존 에이어스 교수팀은 동일한 내과 분야 질문에 대한 의사와 챗GPT의 답변을 평가하는 실험에서 답변의 질과 공감도 모두 챗GPT가 훨씬 우수하다고 평가했다.

챗gpt 로고 [사진출처=연합뉴스]

챗gpt 로고 [사진출처=연합뉴스]

AD
원본보기 아이콘

미국의학협회 학술지(JAMA) ‘JAMA 내과학’에 발표한 결과를 보면, 연구팀은 온라인 커뮤니티 ‘레딧’의 ‘에스크닥스’ 게시판에 올라온 질문 가운데 195개를 무작위로 선정했다. 에스크닥스는 약 45만2000명의 회원이 의학 질문을 게시하면 의사 면허를 가진 전문가들이 답변해주는 공간이다.


연구팀은 무작위 선정한 질문에 대한 챗GPT 답변을 3명의 전문가에게 제공한 뒤 비교 평가하게 했다. 이어 평가를 맡은 전문가 패널이 답변 출처가 의사인지 챗GPT인지 알 수 없도록 블라인드 처리했고 답변의 품질과 공감도를 평가하도록 했다.

그 결과 전체 전문가 평가 중 79%가 챗GPT의 응답이 의사보다 낫다고 답했다. 응답의 품질에 대해 챗GPT 답변은 78.5%가 ‘좋음’ 또는 ‘매우 좋음’ 평가를 받았으나 의사 답변은 22.1%만 ‘좋음’과 ‘매우 좋음’으로 평가됐다.


정보의 질도 챗GPT가 ‘우수’하거나 ‘매우 우수’하다는 응답이 의사보다 3.6배 높았고 공감도도 챗GPT가 의사보다 9.8배 높았다. 답변에 대한 의료 전문가들의 공감 정도 평가에서는 챗GPT 응답의 45.1%가 ‘공감한다’ 또는 ‘매우 공감한다’는 평가를 받았고, 의사의 답변은 4.6%만이 ‘공감’ 또는 ‘매우 공감’ 판정을 받았다.


연구팀은 챗GPT가 환자들이 의사에게 하는 질문에 정확하게 답할 수 있는지, 답할 수 있다면 AI를 의료시스템에 통합해 환자 질문에 대한 의사 답변을 개선하고 의사 업무 부담을 줄여줄 수 있을지 모색하는 게 연구의 목적이라고 밝혔다.


의료 전문가 평가에서 챗GPT 답변은 78.5%가 '좋음' 또는 '매우 좋음' 평가를 받았으나 의사 답변은 22.1%만 '좋음'과 '매우 좋음'으로 평가됐다. [사진출처=연합뉴스]

의료 전문가 평가에서 챗GPT 답변은 78.5%가 '좋음' 또는 '매우 좋음' 평가를 받았으나 의사 답변은 22.1%만 '좋음'과 '매우 좋음'으로 평가됐다. [사진출처=연합뉴스]

원본보기 아이콘

이어 의사가 환자 중심 진료를 위한 맞춤형 의료 조언을 AI에게 받을 수 있고, AI가 직접 환자와 소통하는 역할도 수행할 수 있을 것으로 전망했다. 특히 코로나를 겪으며 비대면 진료가 늘어나고 있는 만큼 AI가 의사의 부담을 크게 낮출 수 있을 것으로 기대했다.

AD

논문 공동 저자인 애덤 폴리악 교수는 “이 연구는 챗GPT와 의사를 비교했지만, 의사를 완전히 쫓아내는 것이 궁극적인 해법은 아니다”라며 “대신 의사가 챗GPT를 활용하는 것이 더 나은 공감 치료를 위한 해답이 될 것”이라고 지적했다.


김은하 기자 galaxy656574@asiae.co.kr

<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>

함께 보면 좋은 기사

새로보기

내 안의 인사이트 깨우기

취향저격 맞춤뉴스

많이 본 뉴스

당신을 위한 추천 콘텐츠

놓칠 수 없는 이슈