by Kim Jonghwa
Published 21 Jan.2026 12:45(KST)
Updated 21 Jan.2026 13:46(KST)
由人工智能生成的内容在服务内部使用与对外共享时,其标识标准将有所不同。尤其是对于类似深度伪造这类可能引发严重社会混乱担忧的生成物,必须强制采用人类可以清晰识别的标识。
科学技术信息通信部通过细化将于22日施行的《人工智能(AI)基本法》中关于透明性保障义务内容的《人工智能透明性保障指引》,按照服务类型明确了人工智能生成物的标识标准。
科学技术信息通信部表示,此次是反映业界“仅凭法律及施行令难以在现场适用”的意见,基于实际运营中的人工智能产品和服务类型来整理履行方案。透明性条款将适用至少1年以上的劝导期,在此期间将暂缓事实调查和罚款处罚。
该指引的核心是差异化适用。当人工智能生成物仅在聊天机器人、游戏、元宇宙等服务环境内部使用时,将允许以相对灵活的方式进行标识,如通过用户界面提示、展示标志等。例如,对话型服务可以在使用前告知或在画面内标注;游戏和元宇宙则可以在登录时提示或通过角色标识的方式实现。
相反,当人工智能生成结果被下载、共享等形式转移到服务外部时,将强化标识标准。要求在文本、图片、视频等生成物上采用人眼可见或人耳可听的水印等人类可识别方式,或在文字、语音提示的同时,辅以元数据等机器可读方式。对于与真实难以区分的深度伪造生成物,一律强制要求采用人类可以清晰识别的标识,不得例外。
指引还明确了履行透明性保障义务的主体。直接向用户提供人工智能产品和服务的“人工智能事业者”为适用对象,向国内用户提供服务的海外企业也包含在内。相反,将人工智能作为工作或创作工具使用的用户则被排除在义务对象之外。
科学技术信息通信部表示:“人工智能生成物水印既是防止深度伪造被滥用的最低限度安全装置,也是全球趋势”,并称“将在劝导期间与业界持续沟通,不断完善和高度化指引,支持制度在现场落地”。该指引全文可在科学技术信息通信部及韩国信息通信技术协会官网上查阅。