腾讯披露最新大模型训练方法 可节省50%算力成本
2023年11月23日 21:40
作者: 白杨
来源: 21世纪经济报道
东方财富APP

方便,快捷

手机查看财经快讯

专业,丰富

一手掌握市场脉搏

手机上阅读文章

提示:

微信扫一扫

分享到您的

朋友圈

摘要
【腾讯披露最新大模型训练方法 可节省50%算力成本】腾讯于11月23日宣布,腾讯混元大模型背后的自研机器学习框架Angel再次升级,可将大模型训练效率提升至主流开源框架的2.6倍,千亿级大模型训练可节省50%算力成本。

K图 00700_0]

K图 80700_0]

  随着大模型时代到来,模型参数呈指数级增长,已达到万亿级别。与此同时,大模型也逐渐从支持单一模态、单一任务发展为支持多种模态下的多种任务。

  在这种趋势下,大模型训练所需算力巨大,远超单个芯片的处理速度,而多卡分布式训练通信损耗巨大。如何提高硬件资源利用率,成为影响国产大模型技术发展和实用性的重要前提。

  在此背景下,腾讯于11月23日宣布,腾讯混元大模型背后的自研机器学习框架Angel再次升级,可将大模型训练效率提升至主流开源框架的2.6倍,千亿级大模型训练可节省50%算力成本。

  Angel能力提升背后,是基于训练框架和推理框架的迭代。据悉,面向大模型训练,腾讯自研了机器学习训练框架AngelPTM,可针对预训练、模型精调和强化学习等全流程进行加速和优化,能够以更少的资源和更快的速度训练更大的模型。

  而为了解决推理成本的不断上升,腾讯自研的大模型推理框架AngelHCF通过扩展并行能力、采用多种Attention优化策略等方式对性能进行了提升。同时,框架还适配了多种压缩算法,以提高吞吐能力,从而实现更快的推理性能和更低的成本。

  实测数据显示,相较于业界主流框架,AngelHCF的推理速度提高了1.3倍。在腾讯混元大模型文生图的应用中,推理耗时从原本的10秒缩短至3-4秒。

  另外,升级后的Angel还提供了从模型研发到应用落地的一站式平台,包含数据处理、精调、模型评估、一键部署以及提示词调优等服务,让大模型的“开箱即用”成为可能。

  据介绍,在应用开发层面,腾讯内部已有超过300项业务和应用场景接入腾讯混元大模型内测,相比上个月数量翻了一倍。

(文章来源:21世纪经济报道)

文章来源:21世纪经济报道 责任编辑:73
原标题:腾讯披露最新大模型训练方法,可节省50%算力成本
郑重声明:东方财富发布此内容旨在传播更多信息,与本站立场无关,不构成投资建议。据此操作,风险自担。
举报
分享到微信朋友圈

打开微信,

点击底部的“发现”

使用“扫一扫”

即可将网页分享至朋友圈

扫描二维码关注

东方财富官网微信


扫一扫下载APP

扫一扫下载APP
信息网络传播视听节目许可证:0908328号 经营证券期货业务许可证编号:913101046312860336 违法和不良信息举报:021-61278686 举报邮箱:jubao@eastmoney.com
沪ICP证:沪B2-20070217 网站备案号:沪ICP备05006054号-11 沪公网安备 31010402000120号 版权所有:东方财富网 意见与建议:4000300059/952500