美东时间周一,美股AI龙头英伟达股价惨遭暴击:单日收盘下跌16.86%,创美股历史上最大单日个股蒸发规模,市值一夜蒸发5888.62亿美元(约合人民币4.27万亿元)。光是蒸发的市值,就足足相当于3个AMD或近18个寒武纪公司市值。
而这一暴跌背后的原因,是一股“来自东方的神秘力量”:国产大模型公司杭州深度求索上周发布的DeepSeek R1模型。该模型在数学、编程和推理等关键领域的表现甚至能媲美OpenAI的最强推理模型o1,但其API调用成本却低了90%-95%——这让不少华尔街人士开始疑惑:美股科技巨头为AI基建大规模砸下的投资是否都被浪费了?
正因此,英伟达成为本轮美股科技股风暴中的最大受害者。尽管股价惨遭暴击,但英伟达公司仍在周一发布回应,夸赞DeepSeek的R1模型是“一项出色的人工智能进步”。
英伟达回应:DeepSeek是出色的AI进步
英伟达发言人表示:“DeepSeek是一项出色的人工智能进步,也是Test Time Scaling(TTS,即在推理阶段通过增加计算量来提升模型推理能力的一种方法)的完美范例…DeepSeek的工作说明了如何使用该技术创建新模型,利用广泛可用的模型和完全符合出口管制的计算。”
英伟达还声称,它认为DeepSeek的突破将为英伟达带来更多需求。
“推理需要大量的英伟达GPU和高性能网络,”英伟达发言人补充说,“我们现在有三个规模定律(Scaling Law):训练前定律和训练后定律,它们会继续,还有新的TTS(test-time scaling)。”
英伟达还澄清称,DeepSeek使用的GPU完全符合出口标准。这与AI科技初创公司Scale AI创始人亚历山大·王(Alexandr Wang)上周的评论相反,亚历山大·王当时声称DeepSeek使用了在中国大陆被禁止的英伟达GPU。而DeepSeek表示,它使用了英伟达针对中国市场的特殊版本GPU。
TTS的完美范例
英伟达的评论也反映了英伟达首席执行官黄仁勋、OpenAI首席执行官萨姆·阿尔特曼(Sam Altman)和微软首席执行官萨蒂亚·纳德拉最近几个月讨论的一个新主题,即英伟达声明中所提到的TTS。
人工智能的繁荣和对英伟达GPU的需求在很大程度上是由“规模定律(scaling law)”驱动的,这是OpenAI研究人员在2020年提出的人工智能开发概念。这一概念表明,通过大幅增加构建新模型所需的计算量和数据量,可以开发出更好的人工智能系统,而这需要越来越多的芯片。
自去年11月以来,黄仁勋和阿尔特曼一直在关注规模定律的一个新问题,黄仁勋称之为“Test Time Scaling”。
这一概念认为,如果一个训练有素的人工智能模型在进行预测或生成文本或图像时,花更多的时间、使用额外的计算机能力来进行“推理”,那么相比于运行更短时间给出的答案,前者能够给出更好的答案。
大规模砸钱还有意义吗?
DeepSeek的横空出世之后,华尔街分析师们现在都在问一个问题:微软、谷歌和Meta等公司对基于英伟达的人工智能基础设施的数十亿美元资本投资是否被浪费了?因为DeepSeek的出现已经证明——同样的结果可以以更低的成本实现。
本月早些时候,微软表示,仅2025年就将在人工智能基础设施上投入800亿美元,而Meta首席执行官马克·扎克伯格上周刚刚表示,Meta计划在2025年投资600亿至650亿美元的资本支出,作为其人工智能战略的一部分。
美银证券分析师贾斯汀·波斯特(Justin Post)在周一的报告中写道:“如果模型培训成本被证明可以显著降低,我们预计使用云人工智能服务的广告、旅游和其他消费应用公司将在短期内获得成本效益,而与超大规模人工智能相关的长期收入和成本可能会降低。”
(文章来源:财联社)