聽起來很美好。但基站真的需要那么聰明嗎?
這就要算一筆賬了。
先看成本。一塊適合基站的GPU,價格不是小數(shù)。功耗也不是小數(shù)。如果要在幾十萬個基站里全部部署,那將是一筆天文數(shù)字的資本開支。而運營商現(xiàn)在的日子并不好過,流量增長但收入不增,是過去十年全球電信行業(yè)的普遍困境。在這種背景下,讓運營商掏錢給每個基站升級GPU,難度可想而知。
三星電子美國公司網(wǎng)絡事業(yè)部戰(zhàn)略與營銷副總裁Alok Shah表示:“業(yè)界正在謹慎評估與在基站中引入GPU相關的總擁有成本模型和商業(yè)案例。迄今為止,在站點層面全面轉(zhuǎn)向GPU計算在資本支出和運營成本上都面臨挑戰(zhàn),但該領域的創(chuàng)新很活躍。我們可能會發(fā)現(xiàn),在未來幾年內(nèi),會有一部分站點的部署在經(jīng)濟賬上是可行的。”換句話說,賬還沒算清楚,誰也不敢輕易拍板。
再看必要性?;菊娴男枰狦PU嗎?還是說,現(xiàn)有的CPU已經(jīng)夠用了?這其實是一個被忽略的問題。新一代的x86 CPU,性能早已不可同日而語。很多AI推理任務,尤其是輕量級的、對時延要求不高的任務,CPU完全能應付。如果CPU能解決,為什么要多花一筆錢去買GPU?
一位國內(nèi)運營商的專家說得更直白:如果說算力一定要放到基站里,而且一定要放GPU,我打個問號。成本太高,運營商根本接受不了。而且,把算力鎖定在基站里,反而限制了對算力的靈活調(diào)度——邊緣節(jié)點、匯聚機房、中心云,算力應該是一個可以動態(tài)調(diào)配的資源池,而不是固化在每一個站點。但也有不同觀點認為,按演示數(shù)據(jù)推算,單站閑置算力若按云計算市場價的70%出租,五年內(nèi)就能收回30%的基站建設成本。
這些話背后,折射出一個更本質(zhì)的分歧:AI-RAN究竟應該怎么部署,是“全量升級”還是“按需引入”?英偉達作為芯片廠商,當然希望GPU鋪得越廣越好。但運營商要考慮的是,到底哪些場景真正需要基站級別的AI能力。
如果說5G時代,AI還算是個“加分項”,那么到了6G,情況可能會發(fā)生變化。通信行業(yè)普遍認為,6G網(wǎng)絡將面臨一個根本性的挑戰(zhàn):網(wǎng)絡的復雜程度將達到“超越人類規(guī)模”的閾值,人腦已經(jīng)無法實時管理。屆時,AI不再是可選項,而是必選項。
這不是危言聳聽。5G時代,基站已經(jīng)有了大規(guī)模MIMO天線,波束賦形的參數(shù)配置已經(jīng)復雜到需要算法輔助。到了6G,頻段更高、天線更多、業(yè)務更雜,靠人工腳本和預設策略去管理,幾乎不可能。換句話說,未來的網(wǎng)絡必須是“自智”的——自己感知、自己決策、自己優(yōu)化。
這就把問題倒過來了:不是“基站里為什么要放AI”,而是“不放AI的基站還能不能跑得動”。
具體到場景,有幾個方向已經(jīng)比較清晰。
一個是信道估計。無線信號在空中傳播,受到干擾、衰落、遮擋的影響,基站需要實時估計信道狀態(tài),才能決定用什么樣的參數(shù)發(fā)送數(shù)據(jù)。傳統(tǒng)算法有局限,而AI可以通過學習歷史數(shù)據(jù),更準確地預測信道變化。富士通旗下的一個團隊給出的數(shù)據(jù)是:用AI改善信道估計,可以把上行鏈路性能提升20%,某些場景下甚至能達到50%。
另一個是波束管理。大規(guī)模MIMO基站可以生成多個窄波束,覆蓋不同方向的用戶。但用戶是移動的,波束需要跟著人走。如果波束切換不及時,就會掉線。AI可以預測用戶的移動軌跡,提前把波束切過去,讓用戶的體驗更流暢。
還有頻譜共享。傳統(tǒng)做法是,如果某個頻段受到干擾,系統(tǒng)干脆把整個頻段關掉。但AI可以做得更精細——識別出干擾源,只屏蔽受影響的頻率,其他部分照常使用。MITRE在2025年展示的一個應用,做的就是這件事。
這些場景的共同點是:需要實時響應、需要本地決策、無法把所有數(shù)據(jù)都傳回中心處理。這正是基站級AI的意義所在。
如果說“AI for RAN”是為了讓網(wǎng)絡跑得更順,那么“RAN for AI”則是在探索另一種可能性:基站能不能不只是花錢的基礎設施,還能成為賺錢的資產(chǎn)?
軟銀和諾基亞最近做了一個很有意思的試驗。他們在日本搭建了一套基于英偉達GPU的AI-RAN平臺,白天,基站的算力優(yōu)先保障5G通信——處理用戶的語音、視頻、數(shù)據(jù)請求;到了夜間,當網(wǎng)絡流量大幅下降,這些原本閑置的GPU算力并沒有空轉(zhuǎn),而是通過軟銀的AITRAS編排器自動切換成“算力供應商”模式,為第三方客戶運行AI推理任務。
換句話說,同一個基站,白天是通信基站,晚上變成了邊緣AI服務器。諾基亞首席技術兼AI官Pallavi Mahajan對此評價:“隨著全球AI處理需求加速增長,這個項目展示了如何利用分布式網(wǎng)絡資源來提供可擴展、高效且可持續(xù)的AI服務。”
軟銀先進技術研究所副總裁Ryuji Wakikawa則說得更直接:“在AI-RAN中,最大化計算資源的價值非常重要。我們增強了AITRAS編排器,使其能夠?qū)①Y源分配給外部AI工作負載,從而將這些資源作為新的收入來源加以利用。”
這種“基站夜間兼職”的模式,觸及了一個更深層的變革:基站正在從單純的“成本中心”向可能的“利潤中心”演進。當然,這還只是試驗??蛻舢嬒襁€不清晰——是賣給互聯(lián)網(wǎng)公司做邊緣推理?還是給工業(yè)企業(yè)做機器視覺?商業(yè)模式還在探索中。但它至少打開了一個想象空間:如果全城的基站都能在夜間貢獻算力,那將是一張多么龐大的分布式計算網(wǎng)絡。
回到最初的問題:基站里到底需不需要GPU?
最可能的答案是:部分需要,部分不需要。就像今天的網(wǎng)絡設備,有的用專用芯片,有的用通用CPU,有的用FPGA,各取所需。未來的基站也不會是單一形態(tài),而是根據(jù)場景和成本,靈活選擇計算架構。
對于城市熱點、高流量區(qū)域,基站可能確實需要GPU來支撐復雜的AI任務;對于偏遠地區(qū)、低負載站點,CPU就夠用了,沒必要多花錢。還有一種可能是,GPU不是部署在每一個基站,而是部署在邊緣節(jié)點,覆蓋一片區(qū)域內(nèi)的多個基站,兼顧算力供給和成本控制。
英偉達自己也意識到了這一點。它的AI Aerial平臺,核心賣點之一就是“資源共享”——同一塊GPU,可以動態(tài)分配給RAN任務和AI任務,忙時做通信,閑時做推理,提高利用率,攤薄成本。這其實是在回應運營商的成本顧慮:你可以不用為AI專門買一塊GPU,它可以和RAN共用一塊。
軟銀在日本做的試驗,就是這個思路。他們用一套系統(tǒng)同時跑5G和第三方AI應用,證明了兩者可以共存,且互不干擾。對于運營商來說,這提供了一種新的可能性:基站不再只是成本中心,還可以變成算力服務的輸出節(jié)點,創(chuàng)造新的收入來源。
當然,這還只是試驗。從試驗到規(guī)模化商用,還有很長的路。標準怎么定、接口怎么統(tǒng)一、業(yè)務模式怎么設計,都是待解的難題。業(yè)內(nèi)人士的回答是:“客戶畫像還不清晰,是賣給互聯(lián)網(wǎng)公司做邊緣推理?還是給工業(yè)企業(yè)做機器視覺?商業(yè)模式還在探索中。”
站在2026年回望,AI-RAN的討論已經(jīng)從“要不要做”轉(zhuǎn)向了“怎么做”。英偉達用兩年時間,把一個概念做成了一個產(chǎn)業(yè)聯(lián)盟,從T-Mobile到軟銀,從諾基亞到思科,越來越多的大玩家加入其中。這本身就說明,方向是對的。
但“方向?qū)?rdquo;不等于“落地快”。電信行業(yè)有其自身的節(jié)奏,幾億用戶的網(wǎng)絡不能隨便折騰,穩(wěn)定可靠永遠是第一位的。“AI-RAN架構能否實現(xiàn)規(guī)?;逃?,關鍵取決于其性能表現(xiàn)、成本控制與運行穩(wěn)定性。今年MWC上的各類演示顯示,相關技術基礎正持續(xù)成熟,云計算、人工智能與通信基礎設施的融合,已從概念構想逐步進入可控驗證落地階段。”
“AI進基站,不會是顛覆式的推倒重來,而是漸進式的滲透融合。”這個過程可能需要五年、十年,但一旦完成,網(wǎng)絡將不再是今天的網(wǎng)絡。
到那時,基站不僅是收發(fā)信號的鐵塔,還是感知世界的節(jié)點;網(wǎng)絡不僅是傳輸數(shù)據(jù)的管道,還是承載智能的基礎設施。而這一切的起點,正是今天這些充滿爭議、有待驗證的試驗和討論。
快報
根據(jù)《網(wǎng)絡安全法》實名制要求,請綁定手機號后發(fā)表評論