当前位置:首页 > 知识 >

腾讯云高性能计算集群,算力提升三倍

当前大热的人工智能大模型训练,离不开高性能的算力集群。

4月14日,腾讯云正式发布新一代HCC(High-Performance Computing Cluster)高性能计算集群。实测显示,腾讯云新一代集群的算力性能较前代提升高达3倍,是国内性能最强的大模型计算集群。

该集群采用腾讯云星星海自研服务器,搭载英伟达最新代次H800 GPU,服务器之间采用业界最高的3.2T超高互联带宽,为大模型训练、自动驾驶、科学计算等提供高性能、高带宽和低延迟的集群算力。

为大模型训练提供高性能智算能力支撑

什么是算力集群?一般运算由运算卡(芯片)来完成,但遇到海量运算,单块芯片无力支撑,就要将成千上万台服务器通过网络联结组成大型的算力集群。

算力集群的“强”由单机算力、网络、存储共同决定。腾讯云新一代集群通过对处理器、网络架构和存储性能进行协同优化,为大模型训练提供高性能、高带宽、低延迟的智算能力支撑。

2022年10月,腾讯完成首个万亿参数的AI大模型——混元NLP大模型训练。在同等数据集下,将训练时间由50天缩短到11天。如果基于新一代集群,训练时间将进一步缩短至4天。

网络层面,计算节点间存在海量的数据交互需求,随着集群规模扩大,通信性能会直接影响训练效率。腾讯自研的星脉网络为新一代集群带来了业界最高的3.2T的超高通信带宽。实测结果显示,搭载同样的GPU卡,3.2T星脉网络相较前代网络,能让集群整体算力提升20%,使得超大算力集群仍然能保持优秀的通信开销比和吞吐性能。并提供单集群高达十万卡级别的组网规模,支持更大规模的大模型训练及推理。

存储层面,几千台计算节点同时读取一批数据集,需要尽可能缩短加载时长。腾讯云自研的文件存储、对象存储架构,具备TB级吞吐能力和千万级IOPS,充分满足大模型训练的大数据量存储要求。

底层架构之上,针对大模型训练场景,新一代集群集成了腾讯云自研的TACOTrain训练加速引擎,对网络协议、通信策略、AI框架、模型编译进行大量系统级优化,大幅节约训练调优和算力成本。

加速全社会云上创新

以新一代集群为标志,基于自研芯片、星星海自研服务器和分布式云操作系统遨驰,腾讯云正通过软硬一体的方式,打造面向AIGC的高性能智算网络,持续加速全社会云上创新。

据悉,腾讯混元AI大模型目前已覆盖自然语言处理、计算机视觉、多模态等基础模型和众多行业、领域模型。在腾讯云上,企业基于TI平台的大模型能力和工具箱,可结合产业场景数据进行精调训练,提升生产效率,快速创建和部署AI应用。

此前,腾讯多款自研芯片已经量产。其中,用于AI推理的紫霄芯片、用于视频转码的沧海芯片已在腾讯内部交付使用,性能指标和综合性价比显著优于业界。其中,紫霄采用自研存算架构,增加片上内存容量并使用更先进的内存技术,消除访存能力不足制约芯片性能的问题,同时内置集成腾讯自研加速模块,减少与CPU握手等待时间。目前,紫霄已经在腾讯头部业务规模部署,提供高达3倍的计算加速性能,和超过45%的整体成本节省。

目前,腾讯云的分布式云原生调度总规模超过1.5亿核,并提供16EFLOPS(每秒1600亿亿次浮点运算)的智算算力。未来,新一代集群不仅能服务于大模型训练,还将在自动驾驶、科学计算、自然语言处理等场景中充分应用。

【记者】马芳 【作者】马芳 【来源】南方报业传媒集团南方+客户端 来源:今日头条 作者:南方plus客户端

猜你喜欢

微信二维码

微信