訂閱
糾錯
加入自媒體

“賣鏟人”英偉達和“全棧帝國”谷歌,誰能主導(dǎo)AI時代?

谷歌,英偉達接連扔出“王炸”。 

11月19日盤后,英偉達發(fā)布2025年三季度財報,一如既往地超出市場預(yù)期,期內(nèi)實現(xiàn)營收570.06億美元,同比上漲62%,高于市場預(yù)期的542億美元;實現(xiàn)凈利潤319.10億美元,同比上漲65%。

此外,英偉達對下一季度的業(yè)績作出指引,預(yù)測2026財年第四財季的銷售額將達到驚人的650億美元,上下浮動2%,中位數(shù)高于市場預(yù)期的620億美這樣的成績,直接引發(fā)了新一波的AI企業(yè)上漲。 

而在前一日,谷歌也發(fā)布了截至目前最強的大模型Gemini 3系列,不僅在各項基準測試“屠榜”,還展現(xiàn)出卓越的多模態(tài)理解能力、更豐富的交互界面和令人眼前一亮的前端表現(xiàn),而極強的推理能力更是推動了AI從工具走向助手的過程。

 可以說,盡管模型領(lǐng)域有OpenAI與Anthropic競逐前沿,云服務(wù)賽道上微軟、AWS和主打AI基礎(chǔ)設(shè)施Oracle各顯其能,硬件側(cè)AMD、Intel加速追趕,互聯(lián)網(wǎng)陣營中Meta也頻頻亮劍——但站在當前的時間點來看,在這一輪AI浪潮聚光燈下的主角,一定是谷歌與英偉達。

 而他們,本質(zhì)上折射出的是AI時代的兩種頂級范式:從硬件起家、用“力大磚飛”的GPU和“算力同盟”讓自己成為不可或缺的AI基建設(shè)施,和依靠自研TPU芯片+全棧生態(tài),在封閉體系中打造端到端智能體驗的科技巨頭。

01

英偉達

要做AI時代的“中央銀行”

在很長一段時間里,英偉達不過是一個“邊緣玩家”。

盡管它早在1999年就推出了全球首款GPU,并憑借GeForce系列在游戲顯卡市場站穩(wěn)腳跟,但在主流科技敘事中,它始終被歸類為“硬件廠商”,一個為別人提供零部件的配角,而非定義時代的核心力量。

2000至2010年的多數(shù)時間,英偉達屢陷困境。

移動芯片業(yè)務(wù)敗給高通,智能手機和平板熱潮中錯失先機;試圖進軍CPU領(lǐng)域也未能撼動英特爾的地位;即便黃仁勛堅持將CUDA作為通用計算平臺來打造,外界仍普遍認為這只是“工程師的理想主義”,缺乏商業(yè)落地的土壤。

但黃仁勛從未動搖,他堅信未來屬于并行計算,而GPU正是通往這一未來的鑰匙。

即使在公司長期的低谷期間,他依然持續(xù)投入研發(fā),推動GPU從圖形渲染工具向通用計算引擎轉(zhuǎn)型。這種近乎偏執(zhí)的戰(zhàn)略定力,在當時看來像是孤注一擲,卻為后來的AI革命埋下了最關(guān)鍵的伏筆。

轉(zhuǎn)機出現(xiàn)在2012年。多倫多大學(xué)的Alex Krizhevsky等人使用英偉達GPU訓(xùn)練出深度卷積神經(jīng)網(wǎng)絡(luò)AlexNet,證明了利用GPU實現(xiàn)大規(guī)模并行計算的可行性,也讓學(xué)術(shù)界和工業(yè)界第一次意識到:GPU不僅能打游戲,更能“思考”。

而真正的爆發(fā)則來到了2022年之后,隨著大模型技術(shù)突破、生成式AI席卷全球,算力需求呈指數(shù)級增長。

訓(xùn)練一個千億參數(shù)模型所需的計算資源,相當于過去數(shù)年數(shù)據(jù)中心總和。在這場前所未有的算力軍備競賽中,英偉達的H100、A100等高端AI芯片成為稀缺戰(zhàn)略資源,供不應(yīng)求。

至此,蟄伏二十余年的英偉達終于站上舞臺中央。曾經(jīng)被視為“小眾硬件商”的公司,一躍成為全球AI基礎(chǔ)設(shè)施的基石。

但是,作為幾乎可以被稱作是全球唯一、一度卡了所有CSP廠商脖子的企業(yè),自然不允許讓它長期壟斷下去,于是谷歌的TPU、AWS的Trainium也加快了研發(fā)。

為了穩(wěn)固自己的“算力霸權(quán)”,英偉達在2025年除了繼續(xù)加大研發(fā)、提高出貨量之外,更重要的是編織了一張大網(wǎng),利用投資與合同控制住了大半的AI相關(guān)企業(yè),悄然演變?yōu)锳I世界的“中央銀行”角色。

而早在生成式AI爆發(fā)前夜,英偉達其實就已經(jīng)開始悄然布局其“算力生態(tài)護城河”。其中最具標志性的一步,便是與CoreWeave這家名不見經(jīng)傳的云服務(wù)商建立深度綁定關(guān)系。

CoreWeave成立于2017年,最初只是一家挖礦的小公司。但在2019年的礦難后,為了處理手上的GPU,它敏銳地轉(zhuǎn)向云計算與AI的相關(guān)業(yè)務(wù),并幾乎將全部賭注押在英偉達GPU上——成為當時少數(shù)純粹以NVIDIA架構(gòu)構(gòu)建數(shù)據(jù)中心的云廠商。

這一戰(zhàn)略選擇,讓它迅速吸引了英偉達的注意。黃仁勛團隊意識到:要真正掌控AI算力的“貨幣發(fā)行權(quán)”,光賣芯片遠遠不夠。必須確保這些芯片被部署在可控、高效、且忠誠于NVIDIA生態(tài)的基礎(chǔ)設(shè)施中。

而像AWS、Azure、GCP這樣的大型云廠商,雖采購量大,卻也在同步推進自研芯片,存在“脫鉤”風險。相比之下,CoreWeave這樣輕資產(chǎn)、高專注度、無自研芯片野心的合作伙伴,反而成了理想的“算力代理人”。

于是,英偉達開始以非同尋常的方式扶持CoreWeave:在A100/H100極度緊缺的2022–2024年,CoreWeave屢次獲得遠超行業(yè)平均的GPU配額,甚至早于部分大型CSP拿到新品。

為了讓CoreWeave成為成為英偉達最新產(chǎn)品的展示窗,英偉達專門為其開放DGX SuperPOD架構(gòu)、NVLink高速互聯(lián)等核心技術(shù),助其打造媲美甚至超過頭部云廠的AI集群性能。

資本端,在2024年CoreWeave沖刺IPO前夕,英偉達罕見地直接參與其私募融資,并在2025年初達成一項震驚市場的協(xié)議——承諾在未來七年內(nèi)采購CoreWeave未售出的全部GPU算力,總價值預(yù)計高達63億美元。

這項協(xié)議表面上是“產(chǎn)能兜底”,實則是一次精妙的戰(zhàn)略控制:它既保障了CoreWeave的現(xiàn)金流與擴張能力,使其能持續(xù)大規(guī)模采購英偉達芯片;又通過長期綁定,將一家新興云廠商徹底納入自己的“算力同盟”體系。

更重要的是,此舉向整個市場釋放信號:與英偉達深度合作,不僅能拿到芯片,還能獲得“準官方背書”和資本支持。

如今,CoreWeave已躍升為美國增長最快的AI云服務(wù)商之一,估值突破百億美元,客戶包括OpenAI、微軟、Meta等頭部AI公司。

CoreWeave的崛起,本質(zhì)上是英偉達“中央銀行”戰(zhàn)略的縮影——不直接運營云服務(wù),卻通過芯片、資本與協(xié)議,間接掌控了算力的分配權(quán)、定價權(quán)乃至生態(tài)準入權(quán)。

但在這張網(wǎng)下的,遠不止于一家或幾家像CoreWeave這樣的NeoCloud企業(yè)。當大模型公司成為新時代的“石油開采者”,英偉達便開始系統(tǒng)性地用資本和產(chǎn)能承諾,換取它們對未來算力需求的長期綁定——一場 “投資換訂單”運動悄然鋪開。

其中,交易金額最大、最經(jīng)典的,莫非英偉達與Oracle、OpenAI之間的“三角綁定”。

OpenAI與Oracle簽署一份為期五年、總金額高達3000億美元的云計算協(xié)議,由Oracle為其建設(shè)4.5GW的AI數(shù)據(jù)中心——而這些數(shù)據(jù)中心的核心,正是數(shù)百萬顆英偉達GPU。

而在不久后,英偉達宣布與OpenAI達成10GW算力部署意向,每落地1GW,英偉達則將向OpenAI投資100億美元。

OpenAI獲得未來數(shù)年確定性的超大規(guī)模算力供給;Oracle借頂級AI客戶一舉躍升為一線云廠商;而英偉達則提前鎖定了相當于全年出貨量級別的GPU訂單。

而除了OpenAI和oracle外,英偉達也在最近與微軟聯(lián)手投資了另一家新興模型巨頭Anthropic。

根據(jù)合同,英偉達將向Anthropic投入至多100億美元,微軟則投入至多50億美元。同時,Anthropic已承諾購買價值300億美元的Azure云計算容量,并計劃額外購買高達1GW的計算容量。

翻譯一下,就是英偉達和微軟投資Anthropic,Anthropic購買由英偉達GPU硬件支持的微軟云服務(wù),又是一“投資換訂單”的案例。

而在模型廠商之外,英偉達的“投資換訂單”策略也延伸至芯片與基礎(chǔ)設(shè)施生態(tài)。

9月18日,英偉達宣布將以每股23.28美元的價格向英特爾普通股投資50億美元,同時還宣布共同合作開發(fā)AI基礎(chǔ)設(shè)施和計算中心產(chǎn)品,以加速超大規(guī)模、企業(yè)和消費者市場的應(yīng)用程序和工作負載。

此舉有兩重目標,在技術(shù)上,GPU和CPU巨頭的合作可以讓英偉達的AI和加速計算堆棧與英特爾的x86生態(tài)系統(tǒng)緊密結(jié)合,同時還能借助英特爾進入消費市場。

而在政治上,剛剛被美國入股的英特爾是實打?qū)嵉貒谊,英偉達投資英特爾也算是為自己未來的發(fā)展買了一道“護身符”。

此外,xAI、Figure AI、Lambda、Nebius等眾多企業(yè)的股東或投資名單中,也都有著英偉達的身影,而這也正是英偉達構(gòu)建算力帝國的一角。

其實到了今天,英偉達的壟斷早已超越了單純的技術(shù)突破。在硬核的GPU架構(gòu)與CUDA生態(tài)之外,它更通過資本之手,悄然構(gòu)建了一套以“算力綁定”為核心的產(chǎn)業(yè)控制體系。

從CoreWeave到OpenAI,從Oracle到xAI,從Anthropic到英特爾,每一筆投資、每一份長期采購協(xié)議,都不是孤立的商業(yè)行為,而是一根根精心編織的絲線,最終織成一張覆蓋云基礎(chǔ)設(shè)施、大模型研發(fā)與行業(yè)應(yīng)用的全域網(wǎng)絡(luò)。

 

圖片

而英偉達,早已經(jīng)不只是AI芯片供應(yīng)商,更是事實上的“AI中央銀行”——左手握著全球最稀缺的GPU產(chǎn)能,右手揮動千億美元級資本,既決定誰能在何時獲得算力,也引導(dǎo)著整個AI產(chǎn)業(yè)演進的方向。

在這場定義未來的競賽中,黃仁勛和他的帝國,正以技術(shù)為矛、資本為盾,牢牢掌控著通往智能時代的閘門。

02

谷歌,真正的全棧AI

當黃仁勛用一張張長期采購協(xié)議和數(shù)十億美元的投資,將OpenAI、Anthropic、CoreWeave乃至Oracle牢牢綁上自己的戰(zhàn)車時,一個危險的信號傳遍整個科技界:在這個由算力定義話語權(quán)的新時代,誰掌控了GPU的分配權(quán),誰就掌握了AI創(chuàng)新的命脈。

而這恰恰觸碰了云計算巨頭們最敏感的神經(jīng)。

AWS、微軟Azure、Google Cloud,這些曾被視為基礎(chǔ)設(shè)施提供者的CSP,如今發(fā)現(xiàn)自己竟成了“算力打工人”——即便擁有全球最龐大的數(shù)據(jù)中心網(wǎng)絡(luò),卻不得不仰仗一家毛利率超70%的外部芯片公司來驅(qū)動其最核心的AI業(yè)務(wù)。

更令人心驚的是,英偉達不僅賣硬件,還在通過資本深度介入模型層、應(yīng)用層,甚至影響客戶的技術(shù)路線選擇。

顯然,CSP們不會允許這種情況持續(xù)下去。于是,在2022年之后,一場靜默但堅決的“去英偉達化”運動在各大云廠商內(nèi)部全面提速。它們紛紛重啟或加速自研AI芯片項目,試圖奪回對算力底層的控制權(quán)。 

其中,AWS的Trainium進展迅速,已支撐起AWS的部分推理負載;微軟則一邊加大N卡采購,一邊推進Maia定制AI芯片;就連Meta,也在醞釀自己的ASIC芯片。

 然而,在這場突圍戰(zhàn)中,真正跑出領(lǐng)先身位的,是谷歌。

 并非因為它動作最快,而是因為它的布局最早、最深、也最徹底。早在生成式AI爆發(fā)前十年,谷歌就已經(jīng)預(yù)見到通用計算架構(gòu)的局限,并悄然打造了一套從芯片到框架、從模型到產(chǎn)品的完整閉環(huán)——而這一切的核心,正是TPU。

 據(jù)報道,早在2006年,谷歌的內(nèi)部就討論過在自家的數(shù)據(jù)中心中部署圖形處理器(GPU)、現(xiàn)場可編程門陣列(FPGA)或自研專用集成電路(ASIC)的可能性。

 但當時能夠在特殊硬件上運行的少數(shù)應(yīng)用程序可以幾乎0代價的利用當時谷歌大型數(shù)據(jù)中心的過剩算力完成,那什么比免費的午餐更有吸引力呢?于是此課程并沒有落地。

 但是在2013年,風向突變,當時谷歌的研究人員做出預(yù)測:如果人們每天使用語音搜索并通過神經(jīng)網(wǎng)絡(luò)(DNN)進行3分鐘的語音識別,那么當時谷歌的數(shù)據(jù)中心需要雙倍的算力才能滿足日益增長的計算需求,而僅僅依靠傳統(tǒng)CPU來滿足這種需求是非常昂貴的。

 于是,在這個背景下,谷歌TPU項目在高度保密下啟動。

 2016年,第一代TPU首次亮相,用于提升搜索排名和街景圖像識別的推理效率。彼時外界普遍將其視為“內(nèi)部優(yōu)化工具”,并未意識到這是一場戰(zhàn)略級的底層重構(gòu)。

 但谷歌從未打算止步于此。從TPU v2開始支持訓(xùn)練,到v3實現(xiàn)Pod級互聯(lián),再到v4引入液冷與光互聯(lián)技術(shù),TPU的演進始終圍繞一個目標:為大模型時代量身定制計算基座。

 實話實說,在AI浪潮來臨之前,TPU的發(fā)展更像是可有可無的預(yù)備役,到2021年時,才剛剛發(fā)布了TPUv4。

 不過,這一切都被ChatGPT點燃了。

 一夜之間,原本被視為“長期技術(shù)儲備”的TPU項目,被緊急提升至公司最高戰(zhàn)略優(yōu)先級。TPU的研發(fā)節(jié)奏徹底改變。過去以兩年為周期的迭代模式被打破,取而代之的是近乎“戰(zhàn)時體制”的一年一更。

 可以說,當其他云廠商還在為H100配額爭得頭破血流時,谷歌的ASIC卻已經(jīng)越過了和英偉達GPU相比較經(jīng)濟性上的奇點,在自己的TPU集群上完成了多輪千億參數(shù)模型的迭代。

 當AWS還在因Trainium的“不爭氣”止步不前、導(dǎo)致季度營收增速遲遲未突破20%(三季度剛剛突破)時,谷歌卻已經(jīng)開始考慮對外租賃了。

 而這,讓谷歌不再需要繳納高昂的“英偉達稅”,反而能成為下一個英偉達。

 目前,谷歌已同OpenAI達成金額未知的TPU租賃,并將為Anthropic部署100萬片TPU芯片(金額約為700~800億美元),并還在加速對外租賃,預(yù)計2027年發(fā)貨量將到達400萬片。

 而在硬件之外,谷歌模型層的實力也不遑多讓。

 事實上,在2022年底ChatGPT引爆全球時,谷歌正處于前所未有的被動之中。大模型項目進展遲緩,倉促推出的Bard不僅在事實準確性上頻頻出錯,更在多模態(tài)、長上下文等關(guān)鍵維度全面落后。彼時,連《紐約時報》都發(fā)文質(zhì)疑:“這家曾定義AI時代的公司,是否已經(jīng)掉隊?”

 但轉(zhuǎn)折來得極快。2023年初,谷歌將分散在Brain、DeepMind和Search團隊的AI力量徹底整合,全力推進統(tǒng)一架構(gòu)的Gemini項目。

 同年12月,Gemini 1.0發(fā)布,首次實現(xiàn)文本、圖像、音頻、視頻、代碼的原生多模態(tài)對齊,雖因部署延遲未能一舉翻盤,卻奠定了技術(shù)基調(diào)。

 真正的反超始于2024年,谷歌不再局限于單一通用模型,而是構(gòu)建起“基礎(chǔ)大模型 + 垂直專家模型”的協(xié)同生態(tài):Gemini作為通用認知引擎,負責理解意圖與規(guī)劃任務(wù);而Image專精超高保真圖像生成,Veo可生成長達數(shù)分鐘的電影級視頻,AlphaCode在編程競賽中超越90%人類選手,Lyria則實現(xiàn)情感化語音合成。

 這些模型并非各自為戰(zhàn),而是通過與Gemini深度協(xié)同,實現(xiàn)“1+1>2”的能力躍升。Gemini負責任務(wù)理解與調(diào)度,專家模型則在各自領(lǐng)域提供極致輸出。

 二者共同構(gòu)成一個可組合、可擴展的智能服務(wù)矩陣。例如前段時間在社交平臺爆火的Nano Banana項目,正是這一模式的最佳體現(xiàn)。

 Gemini 3的發(fā)布則徹底奠定了谷歌AI霸權(quán)的道路,作為當前最強的基礎(chǔ)模型,Gemini最大的突破在于實現(xiàn)了從“回答問題”到“完成工作”的根本性轉(zhuǎn)變,將AI從一個需要人類監(jiān)督使用的工具成為了可自主工作助理。

 硬件定義算力邊界,模型決定智能高度,而應(yīng)用才是價值落地的終極戰(zhàn)場,但谷歌已經(jīng)擁有數(shù)個月活超十億的超級應(yīng)用,只要按部就班地完成類似于AI overview對谷歌搜搜的改造,在這場三位一體的AI競賽中,谷歌就已經(jīng)勝利。

 03

誰能成為中國的英偉達和谷歌?

 當英偉達以“算力中央銀行”之姿掌控全球AI命脈,谷歌以全棧閉環(huán)構(gòu)建智能帝國之時,中國科技界也在追問:我們有沒有自己的“黃仁勛”和“Pichai”?有沒有可能復(fù)制甚至超越這兩種范式?

 答案是:有嘗試者,但尚無真正的對標者。

 若論硬件雄心,華為無疑是當前最接近英偉達的中國企業(yè)。自2019年遭制裁以來,華為將昇騰AI芯片、MindSpore框架、CANN異構(gòu)計算架構(gòu)作為突圍核心,試圖打造中國版的“GPU+CUDA”生態(tài)。

 然而,華為的困境在于:它只有“鏟子”,卻沒有“礦場”和“礦工”。

 其中,華為在模型層近乎空白,盡管盤古大模型系列持續(xù)迭代,但其開源程度低、社區(qū)生態(tài)弱,遠未形成開發(fā)者引力,甚至還有套殼的丑聞傳出。

 此外,應(yīng)用層也存在嚴重缺失,作為一直以來的硬件廠商,華為并沒有互聯(lián)網(wǎng)基因,這也決定了其沒辦法通過軟件來直接溝通用戶,也沒長出任何一款真正的可以黨走AI出口的APP,缺乏高頻AI應(yīng)用場景反哺芯片優(yōu)化。

 而更直接的,是客戶關(guān)系的尷尬,雖然明面上大家和和氣氣,但互聯(lián)網(wǎng)巨頭如阿里、騰訊、字節(jié),對采用華為AI基礎(chǔ)設(shè)施始終持謹慎態(tài)度,既擔心技術(shù)能力不足,又不想被某一家計算制造巨頭綁定,再加上過去幾年不太愉快的關(guān)系,導(dǎo)致互聯(lián)網(wǎng)A1并不愿意大手筆采購華為計算產(chǎn)品。

 而曾經(jīng)的“金主”運營商和地方國資,在財政壓力下,也無力支撐千億級AI基建投入。

 于是,華為只能走一條更原始的路:力大磚飛?繃乙庵就苿、靠政企項目輸血、靠國產(chǎn)替代政策護航。但這條路能否讓華為彎道超車是一個值得商榷的問題。畢竟,英偉達的“力氣”不僅是在技術(shù)層面,更是來自全球生態(tài)的正向循環(huán)——而華為,仍在孤島中負重前行。

 另一邊,阿里巴巴則試圖扮演“中國谷歌”的角色。

 從底層看,阿里云早在2017年就推出含光AI芯片,后升級為PPU(Pingtouge Processing Unit),雖未大規(guī)模商用,但技術(shù)路線明確:專為大模型訓(xùn)練優(yōu)化。

 模型層,通義千問(Qwen)系列已成為全球最強的開源大模型之一,Qwen-Max、Qwen-VL、Qwen-Audio等多模態(tài)版本持續(xù)迭代,GitHub星標超10萬,被海內(nèi)外開發(fā)者廣泛采用。

 應(yīng)用層,阿里系擁有淘寶、天貓、釘釘、高德、菜鳥等月活數(shù)億的產(chǎn)品矩陣,理論上具備將AI深度嵌入日常場景的能力。

 但理想豐滿,現(xiàn)實骨感。

 阿里的應(yīng)用層缺乏一個真正意義上的“超級入口”:淘寶、釘釘雖用戶量大,但使用時長和交互深度遠不及微信、抖音這類“數(shù)字生活操作系統(tǒng)”,難以支撐高頻、沉浸式的AI代理體驗。

 模型層仍處追趕階段:盡管開源生態(tài)亮眼,但在閉源頂尖模型(如Gemini 3、GPT-5)面前,Qwen在復(fù)雜推理、工具調(diào)用、自主規(guī)劃等能力上難以逾越的巨大代差。

 而硬件方面,受限于先進制程獲取困難,中芯國際產(chǎn)能優(yōu)先,阿里自研芯片更多停留在原型驗證階段,實際訓(xùn)練仍嚴重依賴英偉達GPU,所謂“全棧自研”在硬件端名不副實,至少三年內(nèi)難以解決,而就算解決,國產(chǎn)的落后也不可能提供足夠的最先進制程產(chǎn)能給到阿里。

 但困局之中,亦有突圍之志。

 雖然英偉達手握算力命脈,谷歌坐擁智能閉環(huán),二者以不同路徑共同定義了AI時代的權(quán)力結(jié)構(gòu)。而在中國,華為與阿里各自披甲上陣,一個在封鎖中鍛造“中國芯”,一個在開源中構(gòu)筑“全棧夢”。

 他們或許尚不足以比肩硅谷雙雄,但在這場關(guān)乎未來十年國運的競賽中,已經(jīng)邁出了最關(guān)鍵的一步——不是等待答案,而是成為問題的一部分,并試圖親手寫下解法。

       原文標題 : “賣鏟人”英偉達和“全棧帝國”谷歌,誰能主導(dǎo)AI時代?

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號