생성형 인공지능(AI)이 업무를 넘어 일상 속 대화 상대나 고민 상담 창구로 활용되면서 이용자의 정서적 의존도도 높아지고 있다. 챗GPT 등 서비스의 답변이 어디까지 허용되는지, 의료법상 무면허 의료행위에 해당하는지를 두고 법조에서도 의견이 엇갈린다.


자료사진. EPA연합뉴스

자료사진. EPA연합뉴스

AD
원본보기 아이콘

과학기술정보통신부의 '2025 인터넷 이용 실태조사'에 따르면 국민이 일상에서 생성형 AI를 접한 비율은 67%에 달했다. 한국언론진흥재단의 '2025 10대 청소년 미디어 이용조사'에서도 '최근 일주일 사이 AI를 사용한 경험이 있다'고 응답한 비율이 약 70%에 달했다. 특히 고등학생의 경우 AI를 이용하는 이유로 34.4%가 '조언이나 고민 상담'을 꼽았다. 과도한 의존으로 현실 감각이 약화되는 이른바 'AI 정신병'이라는 신조어까지 등장했다.

의료법 위반 문제 발생할 수도

법조에서는 특히 상담의 성격에 주목한다. 상담은 '정신상담'과 '심리상담'으로 구분되는데, 정신과적 진단과 치료를 포함하는 영역은 전적으로 의료행위에 해당한다. 반면 일반적인 심리상담은 민간자격증이나 교육과정을 통해 수행이 가능하다. 문제는 생성형 AI가 이 경계를 넘는 경우다.


의사 출신인 조진석(변호사시험 2회) 변호사는 "AI가 정신건강 상담 과정에서 진단이나 치료에 해당하는 기능을 수행할 경우 의료법 제27조가 금지하는 무면허 의료행위에 해당할 수 있다"며 "의료기기 수준의 검증 없이 활용될 경우 의료기기법 위반 문제도 발생할 수 있다"고 지적했다.

예를 들어 우울증으로 복용 중인 약물의 효과를 설명하는 것은 정보 제공에 해당해 의료행위로 보지 않는다. 그러나 이용자를 특정 질환으로 진단하거나 관련 약물 복용을 추천하는 수준에 이르면 의료법 위반 소지가 있다.


서비스 설계 단계에서부터 위험을 통제해야 한다는 지적도 나온다. 카이스트 문술미래전략대학원 교수를 겸임하고 있는 오성헌(변시 3회) 변호사는 "서비스 범위를 정보 제공과 정서적 지지 수준으로 제한해야 한다"며 "위기 상황에서는 의료기관으로 연계하는 구조를 기본 설계에 포함해야 한다"고 했다.


이어 "약관에는 의료행위가 아님을 명시하고 이용자 준수사항을 규정할 필요가 있지만, 사업자의 고의·중과실이나 핵심 안전조치 미이행까지 면책하는 것은 허용되기 어렵다"고 덧붙였다.


의료행위 자체 성립 안 할 수도

생성형 AI의 정신적 진단·처방이 원칙적으로 의료법 위반에 해당하지 않는다는 의견도 있다. 의료법 위반이 성립하려면 '진료 행위'가 존재해야 하는데, 이는 사람의 행위를 전제로 한다는 점에서 AI의 답변은 의료행위 자체가 성립하지 않는다는 것이다. 의료기기법 위반 소지 역시 AI는 소프트웨어에 불과해 의료기기 요건을 충족하기 어렵다는 시각이다.


의사 출신인 정이원(변호사시험 4회) 변호사는 "앞으로 AI가 정신과 의사를 대체할 수 있는 정도가 되면 달라질 수 있으나, 현 단계에서는 의료법 위반이 성립하기 어려워 보인다"며 "(성립하려면) 입법으로 'AI의 진단·처방'이 의료행위에 포함된다는 규율이 선행돼야 할 부분"이라고 말했다.


구글, 대화가 이상하면 즉시 대응

구글은 4월 7일(현지 시각) 공식 블로그를 통해 제미나이가 대화 중 '자살 또는 자해와 관련된 잠재적 위기'를 감지할 경우 상담 핫라인으로 즉시 연결하는 기능을 도입한다고 밝혔다.


구글은 임상 전문가들과 협력해 '도움이 제공됩니다(Help is available)' 기능을 개편했고, 위기 상황이 감지되면 채팅·전화·문자 등 다양한 방식으로 전문기관과 연결되는 인터페이스를 제공할 것이라고 설명했다. 또 이용자의 주관적 경험과 객관적 사실을 구분하도록 응답 구조도 개선했다고 밝혔다.


이번 조치는 최근 미국에서 제기된 소송과도 무관하지 않다는 분석이 나온다. 2026년 3월 미국 플로리다에서 사망한 30대 남성의 유가족은 해당 남성이 제미나이 이용 과정에서 '폭력적 행동과 자살을 조장받았다'며 구글을 상대로 손해배상 소송을 제기했다. 구글은 당시 챗봇이 반복적으로 위기 상담 핫라인을 안내했다고 반박하면서도 안전장치 보강 필요성은 인정했다.


임종욱(변호사시험 4회) KT클라우드 법무팀장은 "한국도 AI가 인간이 아님을 주기적으로 고지하고, 미성년자 보호 및 위험 상황 대응 체계를 갖출 필요가 있다"며 "정신건강 영역에서는 의료·간호·심리 전문가의 검증과 점검이 필수적"이라고 말했다.

AD

신나영 법률신문 기자


※이 기사는 법률신문에서 제공받은 콘텐츠로 작성되었습니다.

<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>

함께 보면 좋은 기사

새로보기

내 안의 인사이트 깨우기

취향저격 맞춤뉴스

많이 본 뉴스

당신을 위한 추천 콘텐츠

놓칠 수 없는 이슈