首页 > 财经资讯 >

面向大模型训练(IPFS都有哪些公司在做呢?)

财经资讯 2023-04-14 12:43:27
据腾讯微信公众号消息,腾讯云新发布面向大模型训练的新一代HCC高性能计算集群,整体性能比过去提升了3倍。搭载了NVIDI...更多知识由小编为你整理了《面向大模型训练》详细内容,欢迎关注学习。

面向大模型训练(IPFS都有哪些公司在做呢?)


面向大模型训练

据腾讯微信公众号消息,腾讯云新发布面向大模型训练的新一代HCC高性能计算集群,整体性能比过去提升了3倍。搭载了NVIDIA H800 Tensor Core GPU,能够提供高性能、高带宽、低延迟的智算能力支撑。

  全文如下:

  面向大模型训练,腾讯发布超强算力集群!

请看标题。

这个国内超强算力集群,就是腾讯云新发布的面向大模型训练新一代HCC(High-Performance Computing Cluster)高性能计算集群,整体性能比过去提升了3倍。

它搭载了NVIDIA H800 Tensor Core GPU,能够提供高性能、高带宽、低延迟的智算能力支撑。

当前大热的人工智能大模型训练,离不开高性能的算力集群。我们很高兴第一时间跟你分享这个好消息。

面向大模型训练

一般运算,由运算卡(芯片)来完成。

但遇到海量运算,单块芯片无力支撑,就要将成千上万台服务器,通过网络联结,组成大型的算力集群,同心合力,更高更强。

一个人工智能大模型,通常得用数万亿个单词训练,参数量也“飙升”到了上万亿。这个时候,只有高性能的计算集群能hold住。

面向大模型训练

算力集群的“强”,由单机算力、网络、存储共同决定。就像一个牢固的木桶,缺一不可。

腾讯云新一代集群通过对单机算力网络架构存储性能进行协同优化,能够为大模型训练提供高性能、高带宽、低延迟的智算能力支撑。

总体来说,有以下几个特点:

计算方面,性能强——

在单点算力性能最大优化的基础上,我们还将不同种类的芯片组合起来,GPU CPU,让每块芯片去最恰当的地方,做最擅长的事情。

网络方面,带宽足——

GPU擅长并行计算,一次可以做多个任务。我们的自研星脉高性能网络,让成千上万的GPU之间互相“通气”,信息传递又快又不堵车,打一场漂亮的配合战,大模型集群训练效率提升了20%。

存储方面,读取快——

训练大模型时,几千台服务器会同时读取一批数据集,如果加载时间过长,也会成为木桶的短板。我们的最新自研存储架构,将数据分类放进不同“容器”,用作不同的场景,读取更快更高效。

面向大模型训练

随着算力需求的陡增,自己采购GPU的价格昂贵,甚至有钱也买不到,给创业企业、中小企业带来很大压力。我们的新一代HCC集群,能够帮助在云上训练大模型,希望缓解他们的压力。

我们有训练框架AngelPTM,对内支持了腾讯混元大模型的训练,也已通过腾讯云对外提供服务。它在去年10月,完成了首个万亿参数大模型训练,并将训练时间缩短80%。

我们的TI平台(一站式机器学习平台)拥有大模型能力和工具箱,能帮助企业根据具体场景,进行精调训练,提升生产效率,快速创建和部署 AI 应用。

我们的自研芯片已经量产,包括用于AI推理的紫霄芯片。它采用自研存算架构和自研加速模块,可以提供高达3倍的计算加速性能和超过45%的整体成本节省。

总体而言,我们正以新一代HCC为标志,基于自研芯片、自研服务器等方式,软硬一体,打造面向AIGC的高性能智算网络,持续加速全社会云上创新。


【内容声明】文章内容由新财梯网编辑整理,新闻来源:第一财经

面向大模型训练相关拓展阅读

面向大模型训练(IPFS都有哪些公司在做呢?)

IPFS都有哪些公司在做呢?

答:2020年4月20日,阿里云宣布未来3年再投2000亿元,用于云操作系统、服务器、芯片、网络等重大核心技术研发攻坚和面向未来的数据中心建设。该文件系统可以通过多种方式访问,包括FUSE与HTTP。将本地文件添加到IPFS文件系统可使其......更多详细

置身事内:腾讯的造芯之路

答:作为一个在半导体行业工作过多年的资深工程师,Lynda第一次看到腾讯发布芯片岗位...FPGA相比起芯片容错率高,但在吞吐率、延迟、功耗和灵活性等维度上都很平衡...紫霄所有的架构都围绕着有效算力去做。团队优化片上缓存设计,并摒弃竞品常用......更多详细

以上就是好财梯网整理的关于面向大模型训练(IPFS都有哪些公司在做呢?)的全部内容,希望你在了解【今日财经:#腾讯发布超强算力集群#解读】的基础上可以帮助到你,让我们一起学习理财知识。

标签: 面向大模型训练

理财有风险,投资需谨慎。
Copyright © 2016-2020 ok24k.com All Rights Reserved. 皖ICP备2022016496号-9