“ChatGPT安全威胁,监管与合作须同步推进” View original image

随着利用ChatGPT等生成式人工智能(AI)技术的网络攻击和个人信息泄露担忧不断加剧,专家们强调,为建立应对体系,有必要由政府率先推进监管,并构建政企协同的合作生态。


高丽大学信息安全研究生院教授 Lee Sanggeun 在13日由科学技术信息通信部主办的“生成式AI安全威胁应对方案讨论会”上指出:“如果让生成式AI生成利用程序漏洞的攻击代码,一开始它不会直接生成,但只要绕个弯提问,它不仅会生成攻击代码,还会把攻击原理解释得一清二楚。”


他补充称:“甚至有报告指出,可以从用于训练OpenAI的GPT2模型的数据中,提取姓名、电话号码、电子邮箱地址、社交媒体聊天记录等敏感个人信息。”


韩国互联网振兴院(Korea Internet & Security Agency)未来政策研究室室长 Kim Jeonghui 也表示:“随着生成式AI服务的出现,为掌握黑客技术所需跨越的门槛大幅降低。国内公共领域中,超过74%的网络威胁以钓鱼邮件攻击形式出现,如果利用ChatGPT撰写出比人类更精细、更具亲和力的钓鱼邮件,受害规模将会大幅扩大。”


企业方面也对专家们的上述指摘表示认同,并坦陈正在苦思应对方案。KT安保企划负责人 Park Hwanseok 表示:“正在讨论利用微软和KT专用的ChatGPT空间的方案”,并称:“正向员工进行指引,使其能够拒绝ChatGPT对输入数据进行再学习、再利用。”


LG CNS安保事业负责人委员 Kwak Gyubok 也表示:“企业正通过只允许在封闭环境中使用ChatGPT,或应用监控工具进行过滤等方式来应对。”


安全企业方面建议,有必要积极研究将生成式AI融入安全技术。同时也强调构建民间与政府协同合作生态的重要性。Igloo Corporation管制技术研究组组长 Jeong Ilok 表示:“ChatGPT如何利用,既可能成为网络威胁,也可能成为强化安全的材料,是一把双刃剑。如果打造并提供专门面向安全领域的sLLM模型,就能构建一种无需担心数据泄露即可加以利用的部署型AI。为通过AI提升工作效率并强化安全,实现这一目标,需要产学研的协同合作。”


JiranJigyosecurity代表 Yoon Dusik 也表示:“如果不仅是科学技术信息通信部,警察、通信运营商以及学界等各方不通过合作制定应对方案,就有可能发生重大事故”,“有必要进行积极的研讨。”



科学技术信息通信部第二次官 Park Yoonkyu 表示:“ChatGPT等生成式人工智能技术将广泛而普遍地应用于我们的日常生活,因此有必要积极应对安全威胁方面的忧虑”,“政府将一方面营造安全的网络环境,使国民能够安心使用生成式AI服务,另一方面也将尽最大努力,提升应对日益智能化、高度化网络威胁的能力。”


本报道由人工智能(AI)翻译技术生成。

版权所有 © 阿视亚经济 (www.asiae.co.kr)。 未经许可不得转载。

不容错过的热点