埃隆·马斯克预热造势了大半年的最新人工智能模型Grok 3,终于揭开了面纱。2月18日,马斯克旗下xAI正式发布了Grok 3及Grok 3 mini推理模型,上线后仅提供给X平台的Premium订阅用户,用户还可以订阅SuperGrok服务,每月收费30美元,包年则是300美元。就在两天后,xAI突然宣布,Grok 3模型免费向公众开放使用,“直至服务器负载达到极限”。
《中国经营报》记者从部分用户处获悉,在2月20日中午,用户在Grok页面中发现模型已经从“Grok 2”自动更新为“Grok 3 beta(测试)”模型,聊天对话框提供“Deepsearch”(深度搜索)和“Think”(思考)两项新功能,免费账号在24小时之内可以进行10次深度搜索。
在Grok 3简短的发布会上,按照马斯克的说法,Grok是“地球上最聪明的人工智能”。他给出的理由是,Grok 3及Grok 3 mini两个模型的基准测试得分,在数学、专业知识、编程等任务中几乎略高于包括DeepSeek的V3、OpenAI的GPT-4o、谷歌Gemini-2 Pro、Anthropic公司的Claude 3.5 Sonnet等主流模型。xAI方面还透露,Grok 3的训练仍在持续进行中,并计划在未来几个月内进行频繁更新。
马斯克表示,Grok 3的算力支持来源于xAI的Colossus超级计算集群,配备20万张英伟达H100 GPU和先进的液冷技术。据了解,马斯克自2024年5月起在美国田纳西州孟菲斯的一处废弃工厂筹建Colossus中心并大量购进GPU,截至2024年12月已达到20万张GPU的规模。目前该中心仍在扩展建设中,预计到2025年年底有望达到50万张GPU的规模。
随着Grok 3的发布,叠加前不久由DeepSeek引发的“低价格+高性能”风潮背景,很多人关注的一个重要问题在于:人工智能大模型的“大力出奇迹”——即规模定律(Scaling Law)是否还有效?规模定律是指将大模型的三个关键因素——算力、算法、数据,不断地拉高上限从而实现智能涌现。
“按照xAI给出的评测结果,再加上20万张GPU的算力支持,Grok确实有资格竞争‘地球最强AI’名号。”深度科技研究院院长张孝荣指出,Grok 3算力支持非常惊人,说明在一定程度上,“大力”依然能出“奇迹”。但是,“奇迹并没有想象的那么大”,Grok 3的计算量几乎是DeepSeek的几十倍,但性能却并没有提升几十倍,这从侧面也印证了Scaling Law可能已走到了一个瓶颈期。
华泰证券研报指出,Grok 3训练集群已达到20万卡级别,证明预训练在算力提升下仍能突破;另一方面xAI将采用“延迟开源”策略,实现了商业化和开源的平衡。持续看好全球头部大模型预训练算力需求。
2024年12月时,前OpenAI首席科学院伊利亚·苏茨克弗曾公开断言,预训练模型的扩展已达到瓶颈,行业需要探索新的方法。继续依赖传统的预训练方法已难以取得显著进展。
就在2025年春节期间,DeepSeek的V3和R1凭借训练效率的极大提升,而且降低了对硬件资源的依赖,并通过高性价比和开源策略迅速在全球范围内走红,给全球AI大模型的下一步发展提供了新的思路,也给AI大模型的落地普及打开了广阔的空间。
记者注意到,在Grok 3发布前后,OpenAI方面宣布即将推出GPT-4.5,该公司CEO山姆·奥特曼在社交平台发文称:“体验GPT-4.5比我预期的更像是感受AGI(通用人工智能)的时刻。”毫无疑问,今年对于“地球上最聪明的AI”这一桂冠的争夺将更加激烈,市场格局仍存在较大变数。而对于广大用户而言,或许正如社交平台上一位网友所说,不要只听企业的自夸,也不需要过多地关注五花八门的基准测试,只要看它能否发挥实际的价值,这才是最重要的。
(文章来源:中国经营报)