英伟达作为无可争议的人工智能硬件之王的地位目前看起来无可争议。公司命令超过 90% 的数据中心 GPU 市场和超过 80% 的 AI 处理器据行业分析师称。其股价在过去一年里飙升超过200%,成为全球第一按市值计算,公司规模达 5 万亿美元。
但事情是这样的:那些让英伟达致富的云巨头现在正在悄悄地建立自己的逃生路线。
微软首席技术官凯文·斯科特在一份声明中表示2025 年 10 月炉边谈话到目前为止,Nvidia 已经为 AI 工作负载提供了最佳性价比。但随后他补充道:微软愿意采取任何措施来满足需求。那 ”任何事物“包括将其大部分人工智能工作负载从 Nvidia GPU 转移到自己的 Maia AI 加速器,该公司于 2023 年底首次披露。
微软并不是唯一参与这场悄然反抗的公司。自 2018 年以来,Google 一直在构建定制张量处理单元 (TPU), 和这些不再只是副业项目。 2025 年 11 月,有报道称 Meta 正在考虑使用谷歌的 TPU,Nvidia 股价下跌 4%到 2027 年,其数据中心将部署 TPU。The Information 报道称,Meta 甚至可能最早在明年从谷歌云部门租用 TPU。
Meta 并不是唯一一家多元化的公司。谷歌已悄然签署协议向 Anthropic 供应多达 100 万个 TPU,Claude背后的AI安全公司。该协议或许代表了迄今为止最有力的验证,即 TPU 已成熟为 Nvidia GPU 的可靠替代品,不仅用于推理,而且越来越多地用于训练前沿模型。
这里发生的事情是人工智能计算交付方式发生根本性转变的开始。多年来,英伟达受益于经济学家所说的”平台效应。” 其CUDA软件生态系统成为人工智能开发的事实上的标准,使得转换成本高得令人望而却步。研究人员喜欢它,因为他们现有的代码可以正常工作,而且每一代新 GPU 的速度都会更快。但当你最大的客户决定他们宁愿拥有整个堆栈时,这种优势就开始减弱。

点击展开
经济因素正变得不容忽视。据报道,Nvidia 最新的 Blackwell GPU每单位成本超过 30,000 美元,具有全机架系统,例如GB200 NVL36 的成本约为 180 万美元,NVL72 的成本约为 300 万美元。当你像微软、谷歌和亚马逊一样部署数万个这样的芯片时,这些数字会快速增加。定制芯片为超大规模企业提供了两个关键优势:成本控制和针对特定工作负载的性能优化。
例如,微软的 Maia 100 加速器能够通过转移 OpenAI 的 GPT-3 工作负载来释放 GPU 容量。据报道,该公司正在带来第二代 Maia 明年上市这将提供更具竞争力的计算、内存和互连性能。与此同时,谷歌云正在经历对其定制 TPU 和 Nvidia GPU 的需求不断增加,但该公司已明确表示致力于支持这两条道路。
亚马逊也在采取类似的举措。 Anthropic 的 Claude Opus 4 现在在 AWS 的 Trainium2 芯片上运行,该公司的。就在两年前,这些工作负载还只能由 Nvidia 承担。 AWS 已经在为今年晚些时候准备 Trainium3,有望实现双倍性能和 50% 更高的能源效率。超大规模企业不再只是进行对冲,他们正在积极地将生产工作负载转移到自己的芯片上。
但这不仅仅是为了省钱。这是关于控制的。随着人工智能从训练阶段转向广泛的推理部署(模型实际上被数百万人使用),硬件要求发生了巨大变化。训练成本随着研究人员的数量而变化,但推理成本随着用户的数量而变化。而且用户比研究人员多得多。
尽管 Nvidia 到 2025 年将继续保持创纪录的增长,业内人士表示,随着定制芯片的成熟,该公司最终将面临新的竞争压力,尽管市场份额发生巨大变化的时间表仍不确定。 2026 年之后的增长将需要另一个大的拐点,当然,这可能永远不会到来。问题不在于英伟达是否会面临放缓,而在于何时面临放缓。
甚至华尔街也开始注意到盔甲上的裂缝。最近今年早些时候,DA Davidson 将 Nvidia 从“中性”升级为“买入”,但此举是在该公司预计该股将下跌 48% 后做出的。分析师承认,由于人工智能在各行业的快速采用,他们的前景“发生了很大变化”,但他们也警告说,人工智能应用程序需要成熟,才能证明流入英伟达芯片的数十亿美元是合理的。
竞争不仅仅来自于超大规模企业构建自己的芯片。 AMD 和英特尔正在积极将自己定位为 Nvidia H100 和更新的 Blackwell 平台的可行替代品。 AMD 股价在过去一年上涨了近 59%,达到了市值达3590亿美元这让英特尔苦苦挣扎的 1970 亿美元估值相形见绌。虽然两家公司都没有威胁到 Nvidia 在培训工作量方面的主导地位,推理市场大规模部署人工智能模型的竞争变得越来越激烈。
事情变得非常有趣的地方是:人工智能芯片市场开始看起来像十年前的智能手机市场。早期的智能手机使用现成的处理器,但随着市场的成熟,像苹果这样的公司开始设计自己的芯片针对他们的特定需求和软件进行了优化。结果是更好的性能、更长的电池寿命和更好的集成。我们看到人工智能基础设施中也出现了同样的模式。
据报道,OpenAI 与博通 (Broadcom) 斥资 100 亿美元合作开发定制人工智能芯片这表明,即使是人工智能公司自己也想掌控自己的命运。此次合作预计于 2026 年实现量产,这将标志着 OpenAI 从计算买家转变为芯片的直接架构师。博通的定制芯片业务已悄然成为该行业最赚钱的公司之一,与谷歌TPU仅收入就增长到数十亿。
然而 OpenAI 并没有把所有鸡蛋放在一个篮子里。 2025 年 9 月,Nvidia 和 OpenAI 宣布1000亿美元的合作伙伴关系这揭示了人工智能基础设施错综复杂的经济学问题。根据协议,Nvidia 对 OpenAI 进行了大量投资,然后 OpenAI 使用这些资金为新数据中心购买 Nvidia 芯片。这种循环是惊人的:Nvidia 每投资 100 亿美元,OpenAI 预计将购买大约 350 亿美元的 Nvidia 硬件。
这是一个聪明的安排,既锁定了需求,又为 OpenAI 提供了扩张所需的资本,但它也凸显了两家公司相互依赖的程度。
那么这对于更广泛的人工智能生态系统意味着什么呢?首先,我们可能会看到市场出现分歧。 Nvidia 将继续主导高性能训练领域,其中灵活性和原始计算能力最为重要。但对于推理工作负载而言,最终将使训练的总计算消耗相形见绌,针对特定模型和用例优化的定制芯片将获得关注。
其次,人工智能部署的经济性将会改变。随着推理成为主要成本中心,硬件优先级将转向降低推理成本,而不是最大化训练速度。与通用 GPU 相比,这可能有利于传统 CPU 平台和专用推理加速器。
最后,供应链动态将会演变。控制芯片的公司在管理供应限制方面具有更大的灵活性,并且可以端到端优化其硬件软件堆栈。随着人工智能模型变得更加复杂和计算密集型,这种垂直整合变得越来越有价值。
当然,Nvidia 不会去任何地方。该公司针对这些趋势,成立了自己的定制芯片部门,瞄准 300 亿美元的 ASIC 市场。其软件生态系统仍然非常有价值,其 GPU 很可能在未来几年仍然是人工智能研究和开发的黄金标准。
但英伟达几乎完全占据主导地位的时代可能已经达到顶峰。正如一位业内人士所说“问题不在于 NVIDIA 是否会面临放缓,而在于何时会面临放缓。”随着超大规模企业构建自己的芯片、人工智能公司设计定制芯片以及推理市场竞争的加剧,2026 年可能会标志着以 GPU 为中心的人工智能基础设施的高水位。
人工智能硬件的下一阶段将不再关注谁拥有最快的 GPU,而是谁能够为特定工作负载提供最高效、最具成本效益的计算。在这场竞赛中,控制整个堆栈:从芯片到软件,可能就是最终的优势。
