专门支持超大规模AI模型研发
NHN Cloud表示,作为人工智能产业融合事业团(AICA)推进的“超高性能计算(High Performance Computing,以下简称HPC)服务用户定期招募”项目的一环,将在本月15日前面向用户招募“国家人工智能(AI)数据中心”HPC服务使用者。
本次项目将采用由304块“英伟达 H100 图形处理器(GPU)”构成、算力规模达20拍弗洛普斯(PF)的加速器,以及总计22拍字节(PB)的存储空间。在此基础上,计划重点支持从大语言模型(LLM)到小语言模型(sLM)在内的超大规模AI模型研发。
招募对象为希望利用超大规模AI模型开展产品及服务研究开发的国内企业、公共机构、研究所、大学以及各类协会、团体等。用户遴选将通过对政策符合度、课题优越性、资源必要性、目标成果、应用计划等进行评估后作出决定。入选的企业和机构可根据其提交的研发计划,在最长3个月内免费获得▲大容量(2.5PF至最高10PF)或中小容量(0.5PF至2PF以下)加速算力,以及▲存储空间(每个课题配备SSD 30TB、HDD 200TB)。
Kim Donghun NHN Cloud代表表示:“在本次项目中,NHN Cloud将提供为AI模型能力强化研究量身打造的超高性能HPC服务”,“今后NHN Cloud也将以强大的AI基础设施为依托,进一步扩展AI生态系统。”
NHN Cloud在光州广域市建设并运营“国家AI数据中心”。国家AI数据中心是一座为AI研发进行优化的AI专用数据中心,拥有国内最大规模水准的HPC集群。同时,该中心还具备可为企业、研究机构、大学等提供AI研发支持的88.5PF计算算力和107PB存储容量等基础设施,是一座超高规格的AI数据中心。除此之外,NHN Cloud在包括国家AI数据中心在内的自有数据中心中,已构建起总规模达99.5PF的多元AI GPU集群,其中包括1000块以上“英伟达 H100 GPU”在内的基于英伟达的77.3PF、基于Graphcore的11.2PF以及基于SAPEON的11PF等,正引领AI基础设施市场的发展。
版权所有 © 阿视亚经济 (www.asiae.co.kr)。 未经许可不得转载。