受此影響,英偉達(dá)股價(jià)昨日出現(xiàn)波動(dòng),盤中最高跌幅達(dá)7%,最終收盤下跌2.59%。目前,這條聲明瀏覽量破150萬,評(píng)論超750個(gè),成為AI圈爆火內(nèi)容。
市場(chǎng)對(duì)此反應(yīng)不一。有觀點(diǎn)認(rèn)為,投資者正在重新評(píng)估AI芯片市場(chǎng)的未來格局。有行業(yè)觀察者指出:“當(dāng)你的大客戶開始自研芯片時(shí),市場(chǎng)競爭的邏輯就發(fā)生了變化。”不過,也有分析強(qiáng)調(diào),英偉達(dá)的核心優(yōu)勢(shì)在于其建立的完整生態(tài)體系。
值得一提的是,盡管谷歌成功開發(fā)了TPU系列芯片,但其仍在采購英偉達(dá)GPU。這凸顯出當(dāng)前AI芯片市場(chǎng)的復(fù)雜態(tài)勢(shì)。專用芯片雖能在特定場(chǎng)景展現(xiàn)優(yōu)異性能,但通用平臺(tái)在實(shí)際工作負(fù)載適配、靈活擴(kuò)展性和生態(tài)系統(tǒng)方面仍具優(yōu)勢(shì)。
如果說過去十年,AI基礎(chǔ)設(shè)施基本等同于“GPU+云+自行管理架構(gòu)”的組合,那么現(xiàn)在Google正試圖用一套集“定制硬件、云服務(wù)、托管支持、專用芯片、高速網(wǎng)絡(luò)、生態(tài)協(xié)同與彈性擴(kuò)展”于一體的方案,重新定義AI基礎(chǔ)設(shè)施的核心形態(tài)。
其中,Ironwood作為Google的第七代TPU,是其迄今為止性能最強(qiáng)、能效最高的加速器,專門針對(duì)大規(guī)模模型訓(xùn)練、推理、模型服務(wù)及智能體(Agent)工作流設(shè)計(jì)。
根據(jù)Google博客介紹,相較于前代TPUv5p,峰值性能提升約10倍;與最近一代v6e相比,單芯片在訓(xùn)練和推理任務(wù)上的性能也超過4倍。同時(shí),Ironwood還配備了超大帶寬、大容量內(nèi)存、高速互聯(lián)、液冷系統(tǒng)及系統(tǒng)級(jí)優(yōu)化,能夠高效適配復(fù)雜、高并發(fā)、低延遲的大模型部署與服務(wù)場(chǎng)景。
![]()
與之搭配的,是Google推出的基于ARM架構(gòu)的AxionVM,包含N4A、C4Ametal等型號(hào)。這套方案可覆蓋通用計(jì)算、機(jī)器學(xué)習(xí)加速、推理任務(wù)及日常后臺(tái)運(yùn)算,形成了“定制芯片+通用CPU+云服務(wù)+網(wǎng)絡(luò)支持+托管服務(wù)”的完整閉環(huán),對(duì)外提供“AI超級(jí)計(jì)算機(jī)即服務(wù)”的全新模式。
換句話說,Google并非單純售賣一塊芯片,而是在打造一個(gè)可租用、可彈性擴(kuò)展、能容納大規(guī)模模型運(yùn)行、支持高并發(fā)服務(wù)與全球用戶訪問的全方位AI基礎(chǔ)設(shè)施體系。
這一組合對(duì)行業(yè)而言堪稱重大轉(zhuǎn)折:
一方面,Ironwood實(shí)現(xiàn)了性能與能效的雙重突破,10倍性能提升搭配高效能耗與大規(guī)模擴(kuò)展能力,對(duì)大模型訓(xùn)練、推理及服務(wù)場(chǎng)景極為友好。
另一方面,它大幅降低了AI落地的門檻、運(yùn)維復(fù)雜度與成本。客戶無需自行購置GPU集群,也省去了管理冷卻、網(wǎng)絡(luò)、負(fù)載均衡等復(fù)雜基礎(chǔ)設(shè)施的精力,直接租用“AI超級(jí)計(jì)算機(jī)+托管服務(wù)”即可啟動(dòng)項(xiàng)目。
更關(guān)鍵的是,Google構(gòu)建了“生態(tài)+芯片+云+服務(wù)”的一體化模式,將模型開發(fā)、推理運(yùn)算、部署上線、服務(wù)運(yùn)維與托管支持的全流程進(jìn)行整合,無論對(duì)大企業(yè)、大規(guī)模服務(wù)提供商還是初創(chuàng)公司都極具吸引力。
此外,這套方案專門針對(duì)大規(guī)模推理、模型服務(wù)、智能代理、多模態(tài)應(yīng)用、多用戶并發(fā)訪問等場(chǎng)景優(yōu)化,而這些正是傳統(tǒng)GPU時(shí)代要么不擅長、要么成本過高、效率不佳的領(lǐng)域。
![]()
所以,Ironwood+Axion絕非簡單的另一個(gè)GPU替代選項(xiàng),而是AI基礎(chǔ)設(shè)施的“2.0版本”大升級(jí)。
它代表了AI+云+服務(wù)化基礎(chǔ)設(shè)施+硬件垂直整合+托管支持+彈性擴(kuò)展+低門檻使用的新思路,對(duì)于那些希望快速推出AI服務(wù)、節(jié)省資本開支、降低運(yùn)維壓力,同時(shí)追求高并發(fā)、低延遲與大規(guī)模用戶訪問能力的企業(yè)和組織來說,無疑是極具吸引力的選擇。
谷歌Ironwood的強(qiáng)勢(shì)登場(chǎng),無疑向英偉達(dá)的GPU帝國發(fā)出了一個(gè)明確的挑戰(zhàn)信號(hào)。這是否意味著英偉達(dá)時(shí)代將迎來終結(jié)?
針對(duì)市場(chǎng)變化,英偉達(dá)在聲明中強(qiáng)調(diào)了其獨(dú)特價(jià)值:“英偉達(dá)是唯一能夠運(yùn)行所有AI模型的平臺(tái),在任何地方都能做到。”
這一表態(tài)凸顯了英偉達(dá)的核心戰(zhàn)略,通過“GPU+CUDA+生態(tài)”構(gòu)建的通用計(jì)算平臺(tái),保持其在AI基礎(chǔ)設(shè)施中的基礎(chǔ)地位。
具體而言,英偉達(dá)的優(yōu)勢(shì)體現(xiàn)在三個(gè)層面:
第一,通用性與兼容性。英偉達(dá)GPU的核心優(yōu)勢(shì),從來不是單塊芯片的性能,而是由“硬件+軟件+生態(tài)”織就的龐大網(wǎng)絡(luò)。CUDA就像GPU的操作系統(tǒng)。當(dāng)年英偉達(dá)推出這個(gè)平臺(tái)后,降低了開發(fā)者使用GPU并行計(jì)算的門檻,使其無需深入鉆研硬件底層。
現(xiàn)在幾乎所有主流AI框架,比如PyTorch、TensorFlow,都直接適配CUDA,開發(fā)者寫的代碼能無縫在英偉達(dá)GPU上運(yùn)行,不用反復(fù)修改。
![]()
第二,廣泛適配,已形成成熟生態(tài)。從科研機(jī)構(gòu)用的小模型,到OpenAI訓(xùn)練的GPT-5等超大模型;從醫(yī)療影像分析、自動(dòng)駕駛,到短視頻推薦、語音助手,幾乎所有AI相關(guān)的場(chǎng)景,都有現(xiàn)成的CUDA優(yōu)化工具和案例。
就像萬能插座能適配各種插頭,英偉達(dá)GPU+CUDA組合,能讓絕大多數(shù)AI模型近乎即插即用。不管是學(xué)術(shù)研究的實(shí)驗(yàn)?zāi)P?,還是企業(yè)落地的商用模型,不用特意改造就能高效運(yùn)行,這是其他硬件平臺(tái)很難比的,也是它的看家本領(lǐng)之一。
第三,通用性帶來的靈活性與長期成本優(yōu)勢(shì)。與專用芯片(ASIC)為特定任務(wù)量身定做不同,英偉達(dá)GPU的通用架構(gòu)使其能從容應(yīng)對(duì)AI技術(shù)的快速迭代。
ASIC就像為特定任務(wù)量身定做的“定制工具”。比如谷歌的TPU,就是專門優(yōu)化深度學(xué)習(xí)中的矩陣運(yùn)算,在自家生態(tài)的模型訓(xùn)練和推理中,能效比確實(shí)很高,成本也更低。
但它的問題在于“專”得太絕對(duì)。首先,這會(huì)導(dǎo)致場(chǎng)景受限。TPU主要適配TensorFlow框架和谷歌的模型,要是換個(gè)小眾框架或自定義模型,可能根本跑不起來,就像專門跑馬拉松的跑鞋,用來爬山只會(huì)更難用。
其次,缺乏靈活性。ASIC的電路是固定的,一旦完成生產(chǎn),就只能優(yōu)化特定算法。如果AI技術(shù)迭代出新技術(shù),比如從傳統(tǒng)深度學(xué)習(xí)到多模態(tài)模型,舊的ASIC芯片可能直接被淘汰,企業(yè)得重新采購,硬件成本很高。
更關(guān)鍵的是,ASIC很難覆蓋復(fù)雜場(chǎng)景。比如一家公司既做圖像識(shí)別,又做自然語言處理,還做推薦系統(tǒng),用ASIC可能要為每個(gè)場(chǎng)景買專門的芯片,管理和維護(hù)成本會(huì)飆升;而英偉達(dá)GPU能同時(shí)搞定這三類任務(wù),不用額外適配。
這也是英偉達(dá)對(duì)ASIC保持警惕的核心原因。ASIC只能解決“單一問題”,但AI行業(yè)的需求一直在變,模型和場(chǎng)景越來越多元,萬能工具永遠(yuǎn)比專用工具更有普適性。
盡管英偉達(dá)生態(tài)優(yōu)勢(shì)顯著,但市場(chǎng)格局正在松動(dòng)。
最直接的體現(xiàn)是,Meta正與谷歌洽談采購TPU事宜,計(jì)劃從2027年開始在其數(shù)據(jù)中心部署谷歌芯片。這一動(dòng)向反映了大型科技公司對(duì)AI基礎(chǔ)設(shè)施的戰(zhàn)略考量,在追求性能與能效的同時(shí),通過多供應(yīng)商策略降低供應(yīng)鏈風(fēng)險(xiǎn)。
![]()
假設(shè)未來2–5年,谷歌憑借自研TPU、云服務(wù)與一體化基礎(chǔ)設(shè)施的組合持續(xù)發(fā)力,Meta等科技巨頭紛紛轉(zhuǎn)向TPU采購與托管服務(wù),更多企業(yè)跟進(jìn)采用多樣化基礎(chǔ)設(shè)施與混合部署模式,整個(gè)AI產(chǎn)業(yè)將迎來全方位的深度變革,其深遠(yuǎn)影響將貫穿基礎(chǔ)設(shè)施形態(tài)、硬件市場(chǎng)格局、投資估值邏輯與應(yīng)用商業(yè)化四大維度。
首先,AI基礎(chǔ)設(shè)施將完成從“自建GPU集群”到“云+專用硅+混合”的根本性轉(zhuǎn)變。
這一變革對(duì)不同規(guī)模的機(jī)構(gòu)而言都意義重大:對(duì)中小公司、創(chuàng)業(yè)者和研究機(jī)構(gòu)來說,無需再投入巨額資本購置GPU、建設(shè)專業(yè)機(jī)房及配套的冷卻、電力系統(tǒng),也不必承擔(dān)高昂的維護(hù)運(yùn)維成本,只需通過租用標(biāo)準(zhǔn)化服務(wù)就能快速啟動(dòng)或靈活擴(kuò)展AI項(xiàng)目。
對(duì)大型公司、SaaS服務(wù)商、內(nèi)容平臺(tái)而言,這種新模式能讓它們更靈活、經(jīng)濟(jì)、可擴(kuò)展地部署大模型、推理任務(wù)、多模態(tài)應(yīng)用、智能代理及實(shí)時(shí)服務(wù)。
其次,AI硬件市場(chǎng)將徹底告別“GPU一統(tǒng)天下”的格局,邁入“混合/多極/分散/服務(wù)化”的新階段。
GPU不再是AI硬件的唯一或必要選項(xiàng)。谷歌TPU憑借單芯片4614 TeraFLOPS的算力密度與顯著的成本優(yōu)勢(shì),已成為重要替代選擇——其推理場(chǎng)景能效是競品的2倍,訓(xùn)練成本僅為競品的20%。與此同時(shí),定制ASIC、專用加速器搭配云基礎(chǔ)設(shè)施與托管服務(wù)的方案,也將形成有效補(bǔ)充。
整個(gè)硬件生態(tài)將呈現(xiàn)多樣化共存的態(tài)勢(shì):GPU、TPU、定制ASIC、ARM架構(gòu)虛擬機(jī)、云托管及混合部署等不同廠商的方案各展所長。這不僅會(huì)打破英偉達(dá)的長期壟斷,也將為芯片設(shè)計(jì)、云服務(wù)、基礎(chǔ)設(shè)施提供商及AI初創(chuàng)公司帶來全新的商業(yè)機(jī)會(huì)與競爭模式。國產(chǎn)廠商如寒武紀(jì)等也在聚焦專用芯片路線,加速縮小技術(shù)代差。
再者,行業(yè)的投資與估值邏輯將被徹底重塑。
硬件競爭的核心不再是“賣芯片”,而是轉(zhuǎn)向“賣服務(wù)/基礎(chǔ)設(shè)施/云/托管/生態(tài)”的全棧能力。過去,投資者評(píng)判芯片廠商價(jià)值的核心指標(biāo)是GPU出貨量、AI熱潮帶來的短期需求;而未來,估值邏輯將更多向“誰能提供最經(jīng)濟(jì)、可擴(kuò)展、服務(wù)化、全棧式混合基礎(chǔ)設(shè)施”傾斜。
谷歌憑借從芯片、網(wǎng)絡(luò)到模型、應(yīng)用的全鏈條布局,這套全棧生態(tài)能力成為估值提升的關(guān)鍵支撐;Broadcom等具備專用硅+云服務(wù)+基礎(chǔ)設(shè)施整合能力的大廠及中間商,也將迎來新的估值機(jī)遇。
對(duì)于依賴GPU的傳統(tǒng)廠商而言,這既是嚴(yán)峻挑戰(zhàn),也是轉(zhuǎn)型契機(jī)。它們要么轉(zhuǎn)向通用/混合路線,要么加快布局專用芯片、云服務(wù)及優(yōu)化堆棧,以適應(yīng)市場(chǎng)變化。
同時(shí),基礎(chǔ)設(shè)施門檻的降低將激發(fā)AI初創(chuàng)公司、SaaS企業(yè)及服務(wù)型公司的創(chuàng)新熱情,讓它們更愿意投身技術(shù)探索與模式創(chuàng)新。
最后,這一系列變革將直接引爆AI應(yīng)用、產(chǎn)品與服務(wù)的全面爆發(fā)。
此前,僅大型互聯(lián)網(wǎng)公司和資金雄厚的機(jī)構(gòu)有能力自建或托管GPU集群,開展模型訓(xùn)練、部署與服務(wù);而隨著“AI超級(jí)計(jì)算機(jī)+托管服務(wù)”模式的普及,無論是啟動(dòng)大模型服務(wù)、多模態(tài)生成、智能代理,還是搭建智能后臺(tái)服務(wù)、推薦系統(tǒng)、內(nèi)容生成工具、AI SaaS平臺(tái),都變得門檻更低、靈活性更高。
谷歌新發(fā)布的大模型已推動(dòng)AI應(yīng)用成本暴降90%,百萬Token成本從7美元降至1美元,直接帶動(dòng)了AI營銷等下游領(lǐng)域的業(yè)績爆發(fā)。
這種普及性的提升,將讓更多公司、個(gè)人和中小機(jī)構(gòu)參與到AI創(chuàng)新中來,成為下一波AI應(yīng)用商業(yè)化與產(chǎn)業(yè)化大爆發(fā)的核心驅(qū)動(dòng)力,推動(dòng)AI技術(shù)深度滲透到數(shù)字政府、大交通、制造等更多行業(yè)場(chǎng)景。
快報(bào)
根據(jù)《網(wǎng)絡(luò)安全法》實(shí)名制要求,請(qǐng)綁定手機(jī)號(hào)后發(fā)表評(píng)論