AI 안전성 평가 결과 홈페이지에 공개
챗GPT 개발사 오픈AI는 14일(현지시간) 자사 AI 모델에 대한 안전성 평가 결과를 발표하는 안전성 평가 허브(Safety Evaluations Hub)라는 웹페이지를 공개했다고 밝혔다.
이 웹페이지에선 자사 AI 모델이 유해 콘텐츠 생성, 탈옥(jailbreak·안전장치를 우회해 제한된 콘텐츠 생성), 환각(hallucination) 등 다양한 테스트에서 어떤 점수를 받았는지 공개한다.
오픈AI는 "이 허브는 우리의 투명성 강화 노력"이라며 "지속적으로 관련 지표를 공유하고, 중요한 업데이트가 있을 때마다 갱신하겠다"고 전했다.
또 "이 허브에 안전성 평가 결과의 일부를 공개해 오픈AI 시스템의 안전성 성과를 더 쉽게 이해할 수 있고 투명성을 높이기 위한 업계 전반의 노력도 지원할 수 있을 것"이라고 덧붙였다.
오픈AI의 AI 모델 투명성 강화 노력은 최근 일부 모델을 둘러싸고 논란이 제기됐기 때문이다.
정보 기술(IT) 전문 매체 테크 크런치는 최근 몇 달간 오픈AI가 일부 대표 모델에 대해 안전성 테스트를 급하게 진행하고, 다른 모델에 대해서는 기술 보고서를 공개하지 않았다고 지적했다.
또 지난 3월 말 챗GPT의 기본 모델인 GPT-4o의 업데이트 이후 사용자들의 불만이 커지면서 최근에는 업데이트를 전면 취소하기도 했다.
GPT-4o 업데이트는 챗GPT가 사용자 질문이나 말에 칭찬이나 동조를 많이 하도록 만들어졌는데, 문맥이나 상황과 맞지 않는 반응이 나올 때가 있었다는 것이다.
샘 올트먼 오픈AI 최고경영자(CEO)도 지난달 28일 엑스(X·옛 트위터)를 통해 문제를 인정했고, 공식 블로그를 통해 후속 조치를 예고했다.
김민영 기자 argus@asiae.co.kr
꼭 봐야할 주요뉴스

<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>