訂閱
糾錯
加入自媒體

谷歌:“手撕”英偉達,翻身仗敘事靠譜嗎?

2025-12-22 15:01
海豚研究
關注

Google的全棧AI邏輯已經(jīng)演繹了一個多月,看上去圍繞OpenAI的循環(huán)借貸故事出現(xiàn)破綻,從而導致“突然”的AI敘事轉(zhuǎn)變。但Google鏈屬于厚積薄發(fā),技術更迭是量變引起質(zhì)變,而最關鍵的是業(yè)務定位發(fā)生了根本性的變化。

借著Anthropic又下110億TPU訂單,Meta推進與Google底層語言開發(fā)合作之際,海豚君來梳理一下:

1)TPU生態(tài)到底發(fā)生了什么關鍵變化?

2)如何厘清Google與Anthropic、Broadcom之間的訂單關系?

3)當下估值打入了多少TPU預期?

一、直擊核心問題:TPU的積存訂單與增量收入確認

1、TPU的技術替代“突然”爆發(fā)?

如果不是在行業(yè)內(nèi),這可能是大家的第一個疑問。在市場大多數(shù)記憶還停留在TPU通用性不夠,Google主要用來內(nèi)用而非對外商用時,會非常訝異為何到了TPU v7這一版本,突然開講TPU對的GPU替代邏輯。

這并非市場的重大忽視,奇點形成的關鍵是 TPU在集團內(nèi)部的戰(zhàn)略定位轉(zhuǎn)變——從“對內(nèi)為主”轉(zhuǎn)為“對外直接商用”,促使在芯片設計理念上發(fā)生了根本性的變化。

在這一輪AI LLM時代之前,TPU的設計理念都偏保守。與英偉達idia在設計上更偏重單片核心算力的持續(xù)升級,TPU在設計上更聚焦性價比,即以犧牲極致單片性能,而避免故障率走高導致的物理磨損加速、元件老化、散熱壓力等問題的出現(xiàn),從而拉高了整體成本。

當然這么設計的原因還在于,在TPU對內(nèi)使用下對性能追求點與LLM也存在差異,尤其是在算力指標上。一方面內(nèi)部的廣告推薦模型不需要這么高的算力吞吐,另一方面沒有商用壓力,自然也就沒有“炫技”的必要性。

比如下圖比較了廣告推薦模型(Reco)和LLM大模型對硬件的性能不同需求,在Reco模型下,對算力吞吐、網(wǎng)絡延遲上的要求沒LLM那么高。

但隨著LLM時代到來,算力要求大幅提高,集團對TPU的設計思路本身需要升級改變。這個時候順便對TPU開啟直接商用,還能在當下的千億算力市場分一杯羹,何樂而不為?于是我們看到,2024年中推出的TPU v5版本在單片算力上出現(xiàn)了顯著提升,并在隨后的v6、v7版本繼續(xù)大幅拉高。

而在LLM另外需要的存儲性能——內(nèi)存帶寬、內(nèi)存容量上,TPU v7版本直接拉齊到了GB200的水平,但單卡性能與GB300以及英偉達的Rubin系列還有明顯差距。

2、大廠客戶“突然”密集下訂單?

9月被爆、10月正式官方披露的Anthropic百萬顆TPU訂單可以說是一石激起千層浪,TPU真正走到舞臺中央。依據(jù)專家調(diào)研信息,預計2026年TPU出貨量將達到300萬顆,在2025年的低基數(shù)上增幅達到66%。

但前幾天博通的Q4業(yè)績發(fā)布,提到了Anthropic新下的一份110億TPU v7訂單,預計2026年底交付,按單價來算,那么也是對應40-50萬顆的TPU v7。因此如果能夠按計劃實現(xiàn)交付,那么2026年TPU出貨量將至少達到350萬顆數(shù)量級。

下圖為Anthropic的兩次訂單情況,爆出在接觸合作的Meta、OpenAI等具體細節(jié)還未確認:

不過,雖然紙面上的技術替代性實現(xiàn)了,但要真正獲得頭部大客戶的青睞還需要依賴三個關鍵因素,1)性價比;2)芯片封裝產(chǎn)能配給;3)開發(fā)生態(tài),實際對應1)有效算力成本;2)臺積電的CoWoS產(chǎn)能;3)開發(fā)者生態(tài),一如英偉達idia核心壁壘——CUDA生態(tài)。

(1)以量取勝,不做鏟子商

雖然TPU v7在單卡Raw Power(原始算力)上可能略遜于英偉達idia B200,顯著遜于B300、R100。但在萬卡集群的有效算力(MFU)上,Google憑借獨家的OCS(光路交換)互聯(lián)技術,能大幅緩解傳統(tǒng)GPU集群隨著規(guī)模擴大而損耗指數(shù)級上升的BUG。

正如前文所說,單卡極致性能會導致整體硬件的故障率走高,產(chǎn)生磨損、老化、散熱等問題,算力使用效率反而一般,后續(xù)的維護會帶來更高的成本壓力。

簡單而言,Anthropic看中的是性價比,即“1美元部署對應的算力”。如下圖所示,TPU v7單位算力價格(運行一顆芯片1小時,所需要的綜合成本,包含芯片和數(shù)據(jù)中心基建成本、電力成本、維護人力成本等)便宜了近44%,且其中一次性投入的硬件和基建成本(對應客戶的Capex,需要前置投入)占比在72.7%,也比GB系列的77%~79%略低時,TPU無疑會進入下游客戶算力方案選擇的最終“決賽圈”。

(2)改變信披戰(zhàn)術,鎖訂單搶產(chǎn)能

盡管臺積電和英偉達多年深度合作,且在過去一年多的算力軍備競賽上,雙方攜手獲得了產(chǎn)業(yè)鏈中絕大部分的利益,但這層關系并非絕對捆綁到無懈可擊,尤其是當市場開始質(zhì)疑OpenAI的變現(xiàn)力,以及與英偉達之間循環(huán)貸款對訂單的增長持續(xù)性。

從風險規(guī)避的角度,臺積電會更加注重客戶是否存在“有交付能力的在手訂單”,從而決定產(chǎn)能配給。

因此Google對TPU的信息披露也對應著發(fā)生了變化。既然要與英偉達idia競爭,那么也就是需要和英偉達一樣,盡早公布新產(chǎn)品路線,以便成為客戶做未來算力規(guī)劃時的待選方案之一。通過提前鎖定訂單,從而能從臺積電處拿到產(chǎn)能。

TPU v7之前,Google對TPU的信息披露會更加謹慎,畢竟被認定為只對內(nèi)的“秘密武器”。比如,2015年TPU一代就已經(jīng)落地并且被Google進行大規(guī)模的部署和使用,但直到2016年Google I/O大會才對外公布它的存在。

隨后的2-6代,雖然披露略有放寬,一般是I/O大會發(fā)布PPT后一年內(nèi)就實現(xiàn)了Cloud上線使用,也就是說在發(fā)布時就已經(jīng)談好了產(chǎn)能規(guī)劃。

但這次v7,為了搶到訂單,Google早早發(fā)布TPU v7產(chǎn)品細節(jié)(2025年4月發(fā)布),但彼時產(chǎn)能還未鎖定,直到8月盛傳Broadcom追加對CoWoS的產(chǎn)能(大概率是因為為TPU v7提前準備),隨后9月Anthropic才敲定與Google TPU的合作,涉及到TPU機架的直接銷售(10月底公開披露),而最近當Anthropic追加了110億訂單,Broadcom則再次與TSMC鎖定明年的產(chǎn)能。

因此,從Broadcom向Anthropic(最早下訂單的頭部客戶)允諾的交付時點來看(2026年中和2026年底),Google對TPU v7的信息披露要相當于早于實際部署的1—2年的時間,明顯早于前幾代。

(3)為何說英偉達的軟件生態(tài)優(yōu)勢出現(xiàn)裂縫?

但能讓動不動砸上百億支出的大廠們,敢于下TPU的訂單,光靠便宜肯定不夠,關鍵在于軟件生態(tài)的有效完善,這也是TPU走向大規(guī)模商用需要解決的關鍵問題。

英偉達之所以壁壘深厚,硬件單卡性能只是表面,CUDA才是里子。CUDA是英偉達idia推出用來讓GPU理解C+、Python的底層算子庫,近20年行業(yè)的開發(fā)經(jīng)驗積累,使得CUDA在AI開發(fā)領域幾乎不可跨越:前一代的工程師們基于CUDA寫好了工具模塊PyTorch,后一代的工程師們無需從0-1寫代碼,而是直接套用PyTorch工具來做進一步的開發(fā)。

由此看來,要顛覆CUDA,最重要的是“工具庫”和“人才”。那么TPU是怎么解決的呢?

a. 主動的定點優(yōu)化:編譯器2.0+vLLM直接支持TPU

對應CUDA,TPU的底層算子庫是Pallas。由于TPU發(fā)展晚一些,且之前一直對內(nèi),未對外商用,因此Pallas生態(tài)里面幾乎只有Google自己的工程師在補充算子。而TPU生態(tài)中與PyTorch工具庫對應的,則是JAX。由于手寫Pallas算子的過程太復雜,Google另外推出了XLA編譯器,來實現(xiàn)從JAX到底層指令集(TPU Runtime)的調(diào)用。

但一己之力vs多人合力的天然弱勢,要讓Pallas/JAX去追趕CUDA/PyTorch的難度太大。軟件生態(tài)的缺陷成為TPU商業(yè)化的核心阻力之一,除非客戶本身具備JAX人才(這幾乎只有Google內(nèi)部的人跳到甲方關鍵崗位,再身體力行的推行JAX才行)。

因此Google推出了PyTorch/XLA編譯器,它能讓原本為GPU設計的PyTorch代碼,編譯并運行在TPU上。1.0版本還不太絲滑,但23年推出的2.0版本,優(yōu)化了1.0版本的TPU啟動速度慢問題,不過還是會出現(xiàn)首次編譯時間長等問題。

又一個轉(zhuǎn)折點在2024年下半年,Google 實現(xiàn)了vLLM對TPU的原生支持——2024年7月底披露,vLLM可以實現(xiàn)在TPU v5e和v6e上運行,隨后不斷完善。

vLLM 是目前 AI 推理(讓模型回答問題)領域滲透率最高的開源軟件庫,最早是為了解決英偉達idia顯卡碎片化問題而誕生,因此天然適配GPU。

Google 為了讓vLLM實現(xiàn)對TPU的原生運行,與vLLM團隊深入合作,使用Pallas重寫了基于vLLM的核心算子,通過使用 JAX + Pallas,vLLM可以直接調(diào)用TPU的底層內(nèi)存管理能力,避開了PyTorch/XLA 編譯器帶來的延遲和額外開銷。

c. 被動的開發(fā)者滲透:“AI黃埔軍校”的人才戰(zhàn)術

這一輪AI基建,上游廠商吃了產(chǎn)業(yè)鏈絕大多數(shù)利潤,但行業(yè)的繁榮最終來自下游的百花齊放。對于上游而言,捆綁客戶以獲得持續(xù)的需求是關鍵。英偉達idia采取的方式是股權投資,相當于“芯片折扣+風險投資收益”。

做股權捆綁并沒有壁壘,都是送錢,Google完全可以復制操作。實際上,Google很早就對Anthropic進行了積極投資,投入30億持股比例達到14%(不含投票權)。目前Anthropic估值達到近2000億美元,且不論是否捆綁芯片合同,Google已經(jīng)從這筆風投中獲得了不錯的收益。

但還是那句話,單純股權捆綁(“送錢”)并不是獨家方案。CUDA的繁榮也在于生態(tài)強大,也就是開發(fā)者眾多。因此,這里面的關鍵因素還是“人才”。

上文提到vLLM直接支持TPU,這對頭部客戶來說是明顯利好。畢竟這個路線繞開了編譯器,如果要實現(xiàn)絲滑運用,那么還要配備足夠懂JAX/XLA的TPU人才,對于頭部用戶,Google應該會專門配備技術支持團隊。

但實際上還有“意外之喜”,作為AI老牌大廠的Google,這么多年同時也在對外“輸送”人才。因此,Anthropic的100萬TPU大單能夠促成,少不了“人”的推動——Anthropic內(nèi)部有不少前DeepMind的TPU人才,因此在這次合作之前,內(nèi)部就已經(jīng)在TPU上訓練了Sonnet和Opus 4.5。

因此從上述的“技術迭代+人才推動”兩個角度而言,TPU的軟件生態(tài)問題可以比預想的速度更快實現(xiàn)補漏。

二、新一輪AI敘事下Google的價值

全棧AI的敘事邏輯在資本已經(jīng)演繹了兩個月,Google在此期間也上漲了近30%,成為2025年初絕對想不到的Mag 7明星。雖然近期Google也跟隨AI情緒轉(zhuǎn)冷而暫停了上漲趨勢,但不可否認,在當下Google的AI邏輯仍然是相對較順的。

因此在這個“中場休息”時段,海豚君來扒扒賬:若2026年TPU也走到AI算力的聚光燈下,那么對Google的價值會有多少增量?近4萬億美金市值的Google,打入了多少TPU預期?

1. Google版的算力是如何賺錢的?

在今年Q2之前,Google主要通過GCP做算力租賃的服務,出租的算力有英偉達idia的GPU也有自己的TPU。但從Q2推出TPU v7開始,正式開啟TPU芯片直銷的大規(guī)模商用。

不同服務的提供,對應不同的利潤率,同時也代表Google背后的戰(zhàn)略意圖:

(1)GPU算力租賃:屬于GCP云業(yè)務;本質(zhì)上是英偉達idia的二道販子,自然毛利率最低只有50%左右,主要給那些技術能力較弱的中小廠商準備(不愿意用TPU編譯器把基于CUDA寫的底層代碼重寫一遍),承接一些外溢的算力需求。

(2)TPU算力租賃:屬于GCP云業(yè)務;因為TPU自研,因此少了中間商賺差價,再加上本身技術路線的差異,盡管TPU算力租賃價格是GPU的60%-70%,但對于Google來說,仍然可以賺70-80%的毛利率。

(3)TPU機架銷售:屬于第三方的算力售賣服務,等于是和英偉達等同臺競爭。TPU并非像GPU那樣“即插即用”,TPU的優(yōu)勢是ICI(芯片間互連)和OCS(光交換),單臺服務器無法連入超高速的光網(wǎng)絡,因此最小銷售單位是一個服務器機架,每個機架包含64顆TPU芯片。

具體銷售時分成兩種情況:

一種是Broadcom直銷客戶,Google收取GDC軟件棧的技術支持費;

另一種是Google直銷客戶,那么Google確認硬件收入,Google付給Broadcom、SK等的硬件采購、代工費用為成本。

由于TPU需要客戶具備一定的技術適配能力,因此客戶目前都是行業(yè)頭部。Anthropic是由Broadcom直接發(fā)給Anthropic,但Meta、xAI等目前正在排隊與Google商量TPU合作事宜等,也不排除是上述后者情況。

在Anthropic的合作案例里面,由于是Broadcom直銷+托管Anthropic自己找的第三方數(shù)據(jù)中心,因此這里面Google并不確認硬件銷售收入,只是對Anthropic使用TPU軟件棧(系統(tǒng)軟件、編譯器XLA和框架JAX)收取一定的技術支持、安全更新的服務費。

這部分主要是研發(fā)前置投入、人員團隊的支持,所以邊際成本較低,對Google來說,毛利率可以做到很高。

這里面的特殊之處在于,在Anthropic預定的近100萬塊TPU上(第一筆40萬塊+第二筆40-50萬塊),Google并未染指TPU硬件收入部分。海豚君認為,至少在與英偉達idia合作密切的頭部廠商上,Google還是更傾向于不賺所謂的“鏟子錢”。

這是因為,英偉達idia及其生態(tài)伙伴對Anthropic等頭部客戶都用股權投資來給了個內(nèi)部折扣價:

a. 英偉達投資OpenAI 1000億,以換取10GW算力合同的綁定,暫時不看股權增值收益,相當于給OpenAI打了個七折(1-100/350);

b. 微軟、英偉達分別向Anthropic投資50、100億,換取300億的Azure合同,相當于打了個對折。

因此這種情況下,如果單顆系統(tǒng)級TPU v7價格再算上Google的溢價,那么就相對H200、B200沒有明顯的性價比優(yōu)勢了。

可以合理推測,Google并未參與到TPU硬件銷售收入的分成上,而目的是做大TPU生態(tài)(尤其是開發(fā)者生態(tài)),后續(xù)通過按年付費的軟件棧服務,以及云租賃算力來獲得更多具備一定溢價的變現(xiàn)。

當然,這也不排除如果TPU生態(tài)完善度提升,Google也可以做起芯片直銷的模式。但短中期而言,我們認為還是做大生態(tài)、讓更多的開發(fā)者參與進來是主要目標,賣鏟子(實際也賣不出太多溢價)只占少數(shù)。

2. 當下估值隱含了TPU多少預期?

從積壓合同額(Revenue Backlog)來看,Google Cloud最早在2024年二季度就已經(jīng)受益AI(收入反映在3Q25)。不過彼時Google Cloud的客戶大多還是以中小企業(yè)、傳統(tǒng)企業(yè)的需求為主,除了Workspace的慣性增長趨勢,在AI方面貢獻增量(數(shù)十億量級)的產(chǎn)品形式還主要是Gemini大模型的API。

而在芯片算力上,Google還在遵循市場主要方案,按部就班的采購英偉達芯片——2025年初采購Blackwell系列(GB200、300)。

2025年二季度,隨著TPU v7的發(fā)布以及市場對AI的使用滲透升級,積壓合同余額在高基數(shù)上重新加速增長,這里面應該就已經(jīng)有了一些TPU v7帶來的算力租賃增量。

而三季度凈增的470億中,應該就包含420億的Anthropic算力租賃訂單(前文Anthropic訂單明細表格中60萬顆TPU算力租賃,按照每顆TPU v7 1.6美元/小時單價計算,60萬*1.6美元/h*24h*365天*5年=420億美元)。

Anthropic并非剛開始租TPU算力,而是一直在用,只不過過去占比不高而已。這次420億的算力租賃訂單,5年周期下平均每年將帶來84億的Google Cloud收入,這相當于2025年預計615億美元Google cloud收入的14%。

目前在TPU算力租賃這塊,大廠里面還有Apple,中小廠比如Snap,傳統(tǒng)SaaS的Salesforce以及AI新貴Midjourney。Meta在11月也已經(jīng)宣布有意合作:

第一階段(2026年)為算力云租賃,第二階段(2027年)為TPU直采,然后部署在自己的數(shù)據(jù)中心。近日被爆料進展,雙方就底層語言的暢通正在共同開發(fā)TorchTPU,一如其名,旨在將Meta基于Pytorch寫的代碼,能夠更加絲滑的運行在TPU上。

根據(jù)機構原來預期,Meta 2026年Capex為1000-1200億,近期Meta有意收縮元宇宙投入(約減少30%)。GPU原計劃采購100萬顆,大頭為GB200,另外為V100。

但現(xiàn)在,考慮到Meta目前正在積極接觸Google TPU,海豚君預計TPU合同為70億,但2026年主要還是算力租賃,這部分支出計入Meta的Opex,芯片采購部分為20億。剩下500億美元為Blackwell系列采購額,在一定折扣下,有望獲得對應2GW的算力,如下圖預估:

如果20億芯片采購合同,直接與Google交易,按照2.5萬美元/顆,對應8萬顆。2027年預計該芯片采購升至50萬顆,那么直接帶來50*2.5萬/顆=125億合同額(如果直接從Broadcom拿貨,那Google不確認硬件收入),按照3~5年,平均5年的使用周期來算,每年確認收入25億。

這部分TPU對應算力規(guī)模大約0.5GW,如果Meta目標算力需求不變,那么相當于175億的GPU收入被影響了。

總而言之,無論采取什么樣的TPU交付方式,或者對Google的收入有主要拉動,對利潤是次要拉動,但對英偉達idia收入預期的影響會因為同等算力下英偉達idia溢價更高而同步放大。就如上文,TPU拿了125億的合同,單英偉達產(chǎn)生了近175億的收入缺口需要從別處找補。

回到Google身上,由于TorchTPU的開發(fā)進展并不確定,因此我們暫時將Meta的TPU訂單視為樂觀預期下的向上期權。即中性預期下,僅考慮Anthropic這一個頭部客戶:

更詳細的價值分析部分我們已發(fā)布在長橋App「動態(tài)-深度(投研)」欄目同名文章同樣位置?偨Y(jié)來說,每一次與Meta的合作進展披露,都有可能對短期Google股價帶來提振。

若最終合同額不足我們預期的70億,那么短中期的提振效果會相對有限。尤其是預期拉得過高的時候,還要考慮26年擁有接近10億MAU的OpenAI如果加速變現(xiàn)可能給谷歌帶來的向下風險。

但從另一個角度,若Google以犧牲短期業(yè)績的代價,換來了更廣的TPU滲透——比如繼續(xù)壓價,或者從Broadcom直銷客戶,雖然沒有吃到太多硬件直銷收入,但是讓更多的客戶開始適應TPU的底層框架,后續(xù)仍可通過軟件棧、云租賃的形式收回來,這與GPU在硬件銷售時表現(xiàn)出的高額英偉達稅,本質(zhì)是一樣的,都是一種競爭壟斷的溢價。

<此處結(jié)束>

- END -

/轉(zhuǎn)載開白

本文為海豚研究原創(chuàng)文章,如需轉(zhuǎn)載請獲得授權。

/免責聲明及一般披露提示

本報告僅作一般綜合數(shù)據(jù)之用,旨在海豚研究及其關聯(lián)機構之用戶作一般閱覽及數(shù)據(jù)參考,並未考慮接獲本報告之任何人士之特定投資目標、投資產(chǎn)品偏好、風險承受能力、財務狀況及特別需求投資者若基於此報告做出投資前,必須諮詢獨立專業(yè)顧問的意見。任何因使用或參考本報告提及內(nèi)容或信息做出投資決策的人士,需自行承擔風險。海豚研究毋須承擔因使用本報告所載數(shù)據(jù)而可能直接或間接引致之任何責任或損失。本報告所載信息及數(shù)據(jù)基於已公開的資料,僅作參考用途,海豚研究力求但不保證相關信息及數(shù)據(jù)的可靠性、準確性和完整性。

本報告中所提及之信息或所表達之觀點,在任何司法管轄權下的地方均不可被作為或被視作證券出售邀約或證券買賣之邀請,也不構成對有關證券或相關金融工具的建議、詢價及推薦等。本報告所載資訊、工具及資料並非用作或擬作分派予在分派、刊發(fā)、提供或使用有關資訊、工具及資料抵觸適用法例或規(guī)例之司法權區(qū)或?qū)е潞k嘌芯考埃蚱涓綄俟净蚵?lián)屬公司須遵守該司法權區(qū)之任何註冊或申領牌照規(guī)定的有關司法權區(qū)的公民或居民。

本報告僅反映相關創(chuàng)作人員個人的觀點、見解及分析方法,並不代表海豚研究及/或其關聯(lián)機構的立場。

本報告由海豚研究製作,版權僅為海豚研究所有。任何機構或個人未經(jīng)海豚研究事先書面同意的情況下,均不得(i)以任何方式製作、拷貝、複製、翻版、轉(zhuǎn)發(fā)等任何形式的複印件或複製品,及/或(ii)直接或間接再次分發(fā)或轉(zhuǎn)交予其他非授權人士,海豚研究將保留一切相關權利。

       原文標題 : 谷歌:“手撕”英偉達,翻身仗敘事靠譜嗎?

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號