微軟、谷歌和亞馬遜正在打造 Nvidia 殺手級產品。它正在發揮作用

Gwenda

英偉達作為無可爭議的人工智能硬件之王的地位目前看起來無可爭議。公司命令超過 90% 的數據中心 GPU 市場和超過 80% 的 AI 處理器據行業分析師稱。其股價在過去一年裡飆升超過200%,成為全球第一按市值計算,公司規模達 5 萬億美元。

但事情是這樣的:那些讓英偉達致富的雲巨頭現在正在悄悄地建立自己的逃生路線。

微軟首席技術官凱文·斯科特在一份聲明中表示2025 年 10 月爐邊談話到目前為止,Nvidia 已經為 AI 工作負載提供了最佳性價比。但隨後他補充道:微軟願意採取任何措施來滿足需求。那 ”任何事物“包括將其大部分人工智能工作負載從 Nvidia GPU 轉移到自己的 Maia AI 加速器,該公司於 2023 年底首次披露。

微軟並不是唯一參與這場悄然反抗的公司。自 2018 年以來,Google 一直在構建定制張量處理單元 (TPU), 和這些不再只是副業項目。 2025 年 11 月,有報導稱 Meta 正在考慮使用谷歌的 TPU,Nvidia 股價下跌 4%到 2027 年,其數據中心將部署 TPU。 The Information 報導稱,Meta 甚至可能最早在明年從谷歌云部門租用 TPU。

Meta 並不是唯一一家多元化的公司。谷歌已悄然簽署協議向 Anthropic 供應多達 100 萬個 TPU,Claude背後的AI安全公司。該協議或許代表了迄今為止最有力的驗證,即 TPU 已成熟為 Nvidia GPU 的可靠替代品,不僅用於推理,而且越來越多地用於訓練前沿模型。

這裡發生的事情是人工智能計算交付方式發生根本性轉變的開始。多年來,英偉達受益於經濟學家所說的平台效應” 其CUDA軟件生態系統成為人工智能開發的事實上的標準,使得轉換成本高得令人望而卻步。研究人員喜歡它,因為他們現有的代碼可以正常工作,而且每一代新 GPU 的速度都會更快。但當你最大的客戶決定他們寧願擁有整個堆棧時,這種優勢就開始減弱。

點擊展開

經濟因素正變得不容忽視。據報導,Nvidia 最新的 Blackwell GPU每單位成本超過 30,000 美元,具有全機架系統,例如GB200 NVL36 的成本約為 180 萬美元,NVL72 的成本約為 300 萬美元。當你像微軟、谷歌和亞馬遜一樣部署數万個這樣的芯片時,這些數字會快速增加。定制芯片為超大規模企業提供了兩個關鍵優勢:成本控制和針對特定工作負載的性能優化。

例如,微軟的 Maia 100 加速器能夠通過轉移 OpenAI 的 GPT-3 工作負載來釋放 GPU 容量。據報導,該公司正在帶來第二代 Maia 明年上市這將提供更具競爭力的計算、內存和互連性能。與此同時,谷歌云正在經歷對其定制 TPU 和 Nvidia GPU 的需求不斷增加,但該公司已明確表示致力於支持這兩條道路。

亞馬遜也在採取類似的舉措。 Anthropic 的 Claude Opus 4 現在在 AWS 的 Trainium2 芯片上運行,該公司的。就在兩年前,這些工作負載還只能由 Nvidia 承擔。 AWS 已經在為今年晚些時候準備 Trainium3,有望實現雙倍性能和 50% 更高的能源效率。超大規模企業不再只是進行對沖,他們正在積極地將生產工作負載轉移到自己的芯片上。

但這不僅僅是為了省錢。這是關於控制的。隨著人工智能從訓練階段轉向廣泛的推理部署(模型實際上被數百萬人使用),硬件要求發生了巨大變化。訓練成本隨著研究人員的數量而變化,但推理成本隨著用戶的數量而變化。而且用戶比研究人員多得多。

儘管 Nvidia 到 2025 年將繼續保持創紀錄的增長,業內人士表示,隨著定制芯片的成熟,該公司最終將面臨新的競爭壓力,儘管市場份額發生巨大變化的時間表仍不確定。 2026 年之後的增長將需要另一個大的拐點,當然,這可能永遠不會到來。問題不在於英偉達是否會面臨放緩,而在於何時面臨放緩。

甚至華爾街也開始注意到盔甲上的裂縫。最近今年早些時候,DA Davidson 將 Nvidia 從“中性”升級為“買入”,但此舉是在該公司預計該股將下跌 48% 後做出的。分析師承認,由於人工智能在各行業的快速採用,他們的前景“發生了很大變化”,但他們也警告說,人工智能應用程序需要成熟,才能證明流入英偉達芯片的數十億美元是合理的。

競爭不僅僅來自於超大規模企業構建自己的芯片。 AMD 和英特爾正在積極將自己定位為 Nvidia H100 和更新的 Blackwell 平台的可行替代品。 AMD 股價在過去一年上漲了近 59%,達到了市值達3590億美元這讓英特爾苦苦掙扎的 1970 億美元估值相形見絀。雖然兩家公司都沒有威脅到 Nvidia 在培訓工作量方面的主導地位,推理市場大規模部署人工智能模型的競爭變得越來越激烈。

事情變得非常有趣的地方是:人工智能芯片市場開始看起來像十年前的智能手機市場。早期的智能手機使用現成的處理器,但隨著市場的成熟,像蘋果這樣的公司開始設計自己的芯片針對他們的特定需求和軟件進行了優化。結果是更好的性能、更長的電池壽命和更好的集成。我們看到人工智能基礎設施中也出現了同樣的模式。

據報導,OpenAI 與博通 (Broadcom) 斥資 100 億美元合作開發定制人工智能芯片這表明,即使是人工智能公司自己也想掌控自己的命運。此次合作預計於 2026 年實現量產,這將標誌著 OpenAI 從計算買家轉變為芯片的直接架構師。博通的定制芯片業務已悄然成為該行業最賺錢的公司之一,與穀歌TPU僅收入就增長到數十億。

然而 OpenAI 並沒有把所有雞蛋放在一個籃子裡。 2025 年 9 月,Nvidia 和 OpenAI 宣布1000億美元的合作夥伴關係這揭示了人工智能基礎設施錯綜複雜的經濟學問題。根據協議,Nvidia 對 OpenAI 進行了大量投資,然後 OpenAI 使用這些資金為新數據中心購買 Nvidia 芯片。這種循環是驚人的:Nvidia 每投資 100 億美元,OpenAI 預計將購買大約 350 億美元的 Nvidia 硬件。

這是一個聰明的安排,既鎖定了需求,又為 OpenAI 提供了擴張所需的資本,但它也凸顯了兩家公司相互依賴的程度。

那麼這對於更廣泛的人工智能生態系統意味著什麼呢?首先,我們可能會看到市場出現分歧。 Nvidia 將繼續主導高性能訓練領域,其中靈活性和原始計算能力最為重要。但對於推理工作負載而言,最終將使訓練的總計算消耗相形見絀,針對特定模型和用例優化的定制芯片將獲得關注。

其次,人工智能部署的經濟性將會改變。隨著推理成為主要成本中心,硬件優先級將轉向降低推理成本,而不是最大化訓練速度。與通用 GPU 相比,這可能有利於傳統 CPU 平台和專用推理加速器。

最後,供應鏈動態將會演變。控制芯片的公司在管理供應限制方面具有更大的靈活性,並且可以端到端優化其硬件軟件堆棧。隨著人工智能模型變得更加複雜和計算密集型,這種垂直整合變得越來越有價值。

當然,Nvidia 不會去任何地方。該公司針對這些趨勢,成立了自己的定制芯片部門,瞄準 300 億美元的 ASIC 市場。其軟件生態系統仍然非常有價值,其 GPU 很可能在未來幾年仍然是人工智能研究和開發的黃金標準。

但英偉達幾乎完全佔據主導地位的時代可能已經達到頂峰。正如一位業內人士所說“問題不在於 NVIDIA 是否會面臨放緩,而在於何時會面臨放緩。”隨著超大規模企業構建自己的芯片、人工智能公司設計定制芯片以及推理市場競爭的加劇,2026 年可能會標誌著以 GPU 為中心的人工智能基礎設施的高水位。

人工智能硬件的下一階段將不再關注誰擁有最快的 GPU,而是誰能夠為特定工作負載提供最高效、最具成本效益的計算。在這場競賽中,控制整個堆棧:從芯片到軟件,可能就是最終的優勢。