豆包大模型训练成本节省40%,“价格战”在路上?
2025年03月10日 18:33
来源: 财中社
东方财富APP

方便,快捷

手机查看财经快讯

专业,丰富

一手掌握市场脉搏

手机上阅读文章

提示:

微信扫一扫

分享到您的

朋友圈

  3月10日,字节跳动旗下(以下简称“字节”)豆包大模型团队官宣开源一项针对MoE架构的关键优化技术,可将大模型训练效率提升1.7倍,成本节省40%。

  据悉,该技术已实际应用于字节的万卡集群训练,累计帮助节省了数百万GPU小时训练算力。

  早前,豆包团队发布了新一代稀疏架构 UltraMem,将模型推理成本砍掉 83%,此次,又开源了 COMET,向模型训练成本出手。

  目前,COMET 核心代码已开源,并计划兼容 Triton 等编译生态。

  业内所知,2024年5月中旬,火山引擎放出重拳,豆包Pro 32k模型定价0.8厘/千tokens,价格比行业降低了99.3%,此外,豆包Pro 128k模型定价是5厘钱/千tokens。与行业模型比,价格足足降低了95.8%。火山引擎将大模型带入到了“厘时代”。

  豆包的降价引发了国内主流大模型厂商的一波降价潮。

  而今,豆包攻克MOE架构,成本降低40%,其后续动作值得密切关注。

(文章来源:财中社)

文章来源:财中社 责任编辑:137
原标题:豆包大模型训练成本节省40%,“价格战”在路上?
郑重声明:东方财富发布此内容旨在传播更多信息,与本站立场无关,不构成投资建议。据此操作,风险自担。
举报
分享到微信朋友圈

打开微信,

点击底部的“发现”

使用“扫一扫”

即可将网页分享至朋友圈

扫描二维码关注

东方财富官网微信


扫一扫下载APP

扫一扫下载APP
信息网络传播视听节目许可证:0908328号 经营证券期货业务许可证编号:913101046312860336 违法和不良信息举报:021-61278686 举报邮箱:jubao@eastmoney.com
沪ICP证:沪B2-20070217 网站备案号:沪ICP备05006054号-11 沪公网安备 31010402000120号 版权所有:东方财富网 意见与建议:4000300059/952500