CUBox表示,为用于人工智能(AI)算法研究和生成式AI服务开发等目的,已大规模引进英伟达 H100 图形处理器(GPU)服务器并正式投入运行。此次CUBox启用的 H100 GPU 服务器共由16个节点组成。
英伟达最新GPU H100相较上一代GPU,人工智能训练速度最高可提升至9倍;推理性能可提升至30倍,高性能计算(HPC,High Performance Computing)应用性能最高可提升7倍,因此成为训练大型语言模型(LLM,Large Language Model)及超大规模图像生成模型的核心基础设施。CUBox在原有10个 A100 服务器节点的基础上,现共拥有26个GPU服务器节点,因而在国内专业视频识别AI企业中拥有最大规模的GPU算力资源。
CUBox曾在2021年通过美国国家标准与技术研究院(NIST)人脸识别算法测试(FRVT),证明其是具备世界最高水平卷积神经网络(CNN)基础视频识别技术的企业。公司并未因此止步,而是将研发重心转向其他AI企业负担较重的 ViT(Vision Transformer)模型基础的视频识别算法开发。ViT模型虽能保证算法的高性能,但其数据集体量庞大,在应用与开发阶段必须依托高性能计算能力。
CUBox此前已利用自有GPU服务器开发出基于ViT模型的算法。为进一步强化相关能力,公司决定大规模引进最新GPU服务器。CUBox相关负责人表示:“包括正在推进的仁川机场智能通关算法供应项目在内,我们将积极运用最新GPU服务器,开发能够在全球市场抢占竞争优势的AI技术”,“同时也将把该GPU服务器积极应用于下一代技术业务,例如拣选机器人、诊断医疗AI、3D X射线开发等领域”。
与此同时,CUBox还通过大规模引进GPU服务器,构建能够体现专业厂商实力的高性能生成式AI服务,并计划在不久的将来推向市场。CUBox相关负责人强调:“为成为世界顶尖水平的视频识别公司,我们将持续进行大规模基础设施投资,通过这一举措不断保持技术领先优势”,“并将把相关技术实质性应用于仁川机场智能通关、FaceOn 等自有产品,让普通大众也能切身感受到CUBox所拥有的顶尖技术实力”。
版权所有 © 阿视亚经济 (www.asiae.co.kr)。 未经许可不得转载。