[AI革命](44)用AI阻止AI安全威胁…SK Shieldus
引入AI技术用于安全监控服务
在检测领域积极应用AI
应对生成式AI带来的安全威胁
“像ChatGPT这样的人工智能(AI)计算机,可能被恶意用于网络攻击。”在今年3月与美国广播公司(ABC)的采访中,引发ChatGPT生成式人工智能(AI)热潮的OpenAI首席执行官(CEO)Sam Altman如此表示。他还补充称,生成式AI虽然是优秀的技术,但同时也是危险且令人畏惧的存在。具体而言,它可以大规模制造虚假信息,也可以编写可被用于黑客攻击的程序代码。一旦有人怀着恶意加以利用,它就可能成为最致命的武器。安全专业企业SK Shieldus则手握阻挡此类潜在威胁的“盾牌”。具有讽刺意味的是,用于阻挡AI可能引发的安全威胁的,恰恰也是AI技术。
SK Shieldus在远程监控安全系统、分析异常征兆并判断是否发生网络攻击的“安全管制服务”中引入了AI技术。安全管制由日志收集、探测、分析、响应、报告等环节构成。该服务全年无休,24小时不间断地收集潜在威胁并进行探测,通过分析是否为攻击行为,再利用防火墙等安全系统进行隔离响应。该公司在2016年开发的“Secudium”安全管制平台,借助大数据处理技术,每年收集和处理约8兆(8万亿)条、每日79亿条、每秒25万条的威胁数据。
据介绍,为了高效判断黑客攻击威胁,SK Shieldus利用AI技术每天进行5万件以上的威胁判定。SK Shieldus相关人士表示:“如果由安全管制人员直接判断安全威胁,一天大概只能判断60件左右”,“被分析的日志数量每年增加15%至20%以上,而且由于安全管制人员个人能力不同,对是否为黑客攻击还是正常通信的判断也会有所差异,因此我们引入AI技术,以提高准确性和效率。”尤其是在监控异常流量的探测环节,积极应用AI技术。该系统在过滤“误报”(实际为正常却被判定为有问题的情况)方面,准确率达到99.95%。
SK Shieldus也在积极应对生成式AI可能引发的安全威胁。SK Shieldus旗下白帽黑客专家团队“EQST(Experts, Qualified Security Team)”将生成式AI攻击场景大致分为两类:一类是针对AI模型及其训练数据的攻击,另一类是利用AI应用服务进行的攻击所产生的威胁。针对AI模型的威胁包括篡改输入数据或添加恶意数据进行操纵等。通过提出恶意问题,绕过AI服务内部适用的指令或政策,从而诱导其给出回答的“提示注入(Prompt Injection)”攻击,则属于恶意利用应用服务的方式。实际上,今年3月OpenAI引入的多个插件中,就曾发生过提示注入问题。SK Shieldus EQST事业集团长Lee Jaewoo表示:“随着生成式AI高度发展,攻击的自动化和攻击水平的整体抬升将会到来”,“在应对攻击的防御层面上,也必然需要生成式AI。”
SK Shieldus今后还将从用户、开发者、企业等角度提出AI检查清单,计划共享安全利用AI的方案。Lee Jaewoo称:“EQST将围绕防御层面的生成式AI应用持续开展研究,率先提出应对日益高级化攻击的对策。”
版权所有 © 阿视亚经济 (www.asiae.co.kr)。 未经许可不得转载。