PPIO聯(lián)合創(chuàng)始人兼CEO姚欣

2025世界人工智能大會(WAIC)期間,筆者見到PPIO聯(lián)合創(chuàng)始人兼CEO姚欣時,他剛從美國回來不到兩天,并且在白天與無數(shù)位客戶、投資人、媒體、各級領(lǐng)導等介紹新產(chǎn)品與交流。

他的日程相當緊湊。姚欣告訴筆者,當天晚上還需要與一些投資人見面。最后,我們單獨聊了不到1個小時。

筆者問他:日程排得這么滿,是因為你的精力非常旺盛嗎?

他笑著回答:“該旺盛旺盛,要能屈能伸,我上周剛從國外回來,前兩天還在倒時差。”

姚欣是一位穿越多個科技周期,擁有豐富創(chuàng)業(yè)、投資經(jīng)驗的人:他曾是知名網(wǎng)絡視頻平臺PPTV的創(chuàng)始人,最后公司賣給了蘇寧;他還曾在藍馳創(chuàng)投擔任投資合伙人。

2018年,姚欣和王聞宇(PPIO公司聯(lián)合創(chuàng)始人兼CTO)一起創(chuàng)立了PPIO,團隊一直深耕邊緣云計算服務,十分低調(diào)。

然而,隨著ChatGPT、DeepSeek等大模型技術(shù)引爆全球AI熱潮,帶來GPU算力及AI推理需求激增,2023年,PPIO全面發(fā)力AI云計算服務,并且成為第一批適配DeepSeek的AI Infra公司,也是行業(yè)內(nèi)極少數(shù)能對DeepSeek滿血版運行的平臺公司。因此,PPIO在AI Infra行業(yè)內(nèi)的知名度和關(guān)注度瞬間暴增。

招股書披露,PPIO對DeepSeek-R1模型進行優(yōu)化,采用PD分離等創(chuàng)新分布式計算技術(shù),在提升通信效率的同時實現(xiàn)工作負載均衡。這種措施使吞吐量提高10倍以上,并將理論運營成本降低高達90%。通過算子融合、低精度量化及投機采樣等技術(shù),該公司將模型輸出效率提高了7倍以上,并將理論運營成本降低85.7%。

據(jù)灼識咨詢數(shù)據(jù)顯示,按2024年收入計,PPIO是中國第七大邊緣云計算服務提供商,在中國獨立邊緣云計算服務商中排名第一,市場份額為4.1%;按計算節(jié)點數(shù)計,PPIO派歐云運營著中國最大的算力網(wǎng)絡。

而且,PPIO也是分布式云計算市場中最早提供AI云計算服務的參與者之一。其AI云計算服務增長迅速,日均token消耗量從2024年12月的271億次,增至2025年6月的2000億次,在中國獨立AI云計算服務供應商中位列前兩名。

今年6月,姚欣的PPIO(主體為PPLabs Technology Limited)正式向港交所提交上市招股書,啟動IPO上市之路。

姚欣告訴筆者,提交招股書之后,大家非常關(guān)注PPIO公司,他需要見的投資人也變得更多了。

WAIC 2025期間,姚欣宣布,PPIO正式發(fā)布國內(nèi)首個 Agentic AI 基礎設施服務平臺。其中,PPIO研發(fā)了國內(nèi)首款兼容 E2B 接口的Agent沙箱,專為Agent執(zhí)行任務設計,在云端環(huán)境運行,為Agent賦予安全可靠、高效敏捷的“手和腳”;同時,PPIO模型服務支持百款主流開源與定制AI模型的快速接入、彈性部署與高效調(diào)用,助力開發(fā)者與企業(yè)快速構(gòu)建AI Agent應用,滿足核心需求。

姚欣表示,PPIO將致力于從中國首款 Agent沙箱到模型服務,再到 AI 智能體平臺全面布局,為開發(fā)者和企業(yè)打造 Agent 基礎設施服務。

姚欣認為,AI要走向智能化,就需要Agentic AI基礎設施服務平臺,而MCP只是大廠的“羊毛”,無法解決根本性問題。

對于中美AI大模型,姚欣指出,他觀察到,中國公司都開始加速“卷”開源模型,但OpenAI等美國公司就轉(zhuǎn)成閉源模型,但他認為,開源模型對于AI行業(yè)發(fā)展更加有利,同時也讓AI Infra公司有了更多的發(fā)展機遇。

姚欣表示,雖然模型技術(shù)還在不斷更新,但很多企業(yè)還沒找到一個合理的商業(yè)化方向。對于模型公司來說,這是一個贏者通吃的市場,大家做更好的模型技術(shù),但模型本身無法實現(xiàn)商業(yè)化,更多是依靠生態(tài)實現(xiàn)盈利。而AI Infra基礎設施領(lǐng)域只是一個非常低毛利、海量規(guī)模、長周期的市場。

“你想想,如果水、電、氣、煤都成了暴利,這個行業(yè)能走多遠嗎?”姚欣稱。

姚欣強調(diào),國產(chǎn)算力卡的春天到了,未來AI算力需求都會轉(zhuǎn)向推理端,很多國產(chǎn)卡和算力設施都將迎來新的發(fā)展機會。雖然中心化模型還能再保持10%、20%的增速,但未來更大的增長方向是分布式算力,尤其是邊、端、側(cè)算力爆發(fā)式增長。

“我一直希望PPIO做面向未來的新一代AI應用的云計算公司。”姚欣稱。

以下是PPIO創(chuàng)始人兼CEO姚欣的獨家對話整理(有一定刪減):

問:最近中美AI模型之間發(fā)生了哪些新變化?

姚欣:我發(fā)現(xiàn)一個還挺有趣的觀察是:中國公司開始卷開源模型,美國就變成閉源模型了,連Meta也開始走向閉源化。

之前,我一直關(guān)注開源這件事。我認為開源有兩個方面的價值:

第一個,開源是一個非常好、低成本溝通市場的手段,打響品牌,能夠促成大家關(guān)注的方式;

第二個,開源更開放,所以更容易建立生態(tài),客戶在使用開源模型時沒有負擔。

所以從這兩點上來說,中國大模型廠商之所以想要賺更多的錢,是因為他們發(fā)現(xiàn),想要從模型層面賺錢,并不是一件容易的事情。

國內(nèi)大模型賽道實在很卷。而且實事求是講,我們(中國)、美國最先進模型的性能相比,還是有差距的。

問:近期多個消息稱,DeepSeek熱度似乎消退,平臺用戶使用率已從年初 7.5% 的峰值明顯回落,官網(wǎng)流量同期下滑近三成,其使用率由過年時 7.5%的高點下滑到如今的 3%。您認為,這個變化的原因是什么?這是否會影響很多Infra公司發(fā)展?

姚欣:DeepSeek還是很有機會的,DeepSeek這種開放性,尤其放棄了自己商業(yè)化機會,我覺得這是一件好事。

就像Linux一樣,如果一開始要做成一家商業(yè)化公司,就不會有這么多人用Linux。正是因為Linux基金會做了一個價值觀選擇,用他的真心長期堅持,最終成功了。

今天對于這些公司,我還是非常尊重的,每一個創(chuàng)始人都有自己的選擇,但毫無疑問今天大家都用自己的方式來推動模型世界的發(fā)展。正是因為有開源模型,才有 Infra公司的機會。所以,從我們立場來看,更愿意看到更先進的開源模型出來,甚至我們自己也在捐贈開源,提供代碼貢獻等。

無論是閉源模型,還是開源模型,基本上還是3-6個月周期的更迭,如果你趕不上這種迭代周期的話,就可能被卷出局了。“六小龍”卷出去,就是因為有的人跟不上了,國外也是如此,現(xiàn)在差不多也就那么4家了,甚至Meta扎克伯格也急了,上億元挖硅谷工程師。

我認為,模型技術(shù)還在不斷更新,但是大家仍在探索一個合理的商業(yè)化方向。

問:PPIO剛剛發(fā)布的國內(nèi)首個Agentic AI基礎設施服務平臺,與公司定位的獨立分布式云計算服務商有何關(guān)聯(lián)和聯(lián)系?

姚欣:首先,PPIO是一家獨立分布式云計算服務商,這更多是一個定義。“獨立”這個詞,是一個很重要的客戶市場劃分,之前叫中立性運營服務。

事實上,大廠云業(yè)務可能會跟客戶有一些競爭,客戶在采購的時候會有一些顧慮,但我們不可能與大廠的云計算業(yè)務直接競爭,主要定位是一些大廠云不能服務的客戶,可以考慮我們這種更加中立的第三方服務,所以大家提“獨立”這個概念。這樣對于客戶來說,可以有選擇的靈活性。

其次,相比公有云、混合云服務,我們專門做垂直細分領(lǐng)域的分布式云計算業(yè)務。同時,我的價值主張是,我們不會跟我的客戶產(chǎn)生沖突。

因此,這兩點其實是我們公司的優(yōu)勢。

PPIO落地的核心場景:一個是邊緣云、另一個是AI云計算。

其中在邊緣云方面,我們的技術(shù)實力和服務能力得到了業(yè)界的廣泛認可。我們?yōu)楸姸鄧鴥?nèi)外領(lǐng)先的科技公司(根據(jù)灼識咨詢的數(shù)據(jù),包括中國前十大互聯(lián)網(wǎng)公司的大部分)、云計算公司以及“獨角獸”初創(chuàng)公司提供了邊緣云計算服務和AI云計算服務。而且,我們是在IaaS、PaaS、MaaS三層都具備相應技術(shù)能力的公司。

同時,不只是云計算,還有AI Infra優(yōu)化和GPU資源利用率。如果企業(yè)有大量任務調(diào)度,只是服務一類需求,峰值會達到90%,但平時基本都是閑置。

一天24小時,服務器只跑兩小時,剩下22小時都在閑置利用。

因此,這就要求有很強的調(diào)度能力、融合能力、模型優(yōu)化、底層算子等技術(shù)能力,而PPIO都有很強的市場競爭力。

AI Infra過去一段時間做的是怎么把GPU用好、GPU利用率提升、GPU跟模型的適配做好等技術(shù)。而Infra再上升一層,核心將不再是GPU,而是AI運行框架。

問:Agentic AI基礎設施服務平臺的靈感來源于哪里?

姚欣:其實我們很早就看到了Agentic AI技術(shù)方向。大的背景是,我們一直在為 Manus的母公司Monica服務,關(guān)于這個想法,我們與肖弘曾在2023年有過交流。

我認為,今天AI要走向智能化,一定需要有一套所謂的虛擬電腦,在里面像仿真一樣去訪問所有信息源,這是一套通用且終極的解決方案,而不是MCP。

我認為,MCP就是大廠的羊毛。

問:為什么MCP是大廠的羊毛?

姚欣:這是行業(yè)觀點。本質(zhì)上,今天的MCP是把自己的數(shù)據(jù)開放給第三方調(diào)用,站在大廠的角度來講,為什么開放?我最核心的數(shù)據(jù)能開放嗎?

再比如,微信的朋友圈關(guān)系能開放嗎?支付寶的支付記錄能開放嗎?抖音推薦算法能開放嗎?這些都不可能開放的。而MCP開放的目的在于,要把用戶引導回來。

問:您認為AI Infra公司屬于賺錢的一方嗎?

姚欣:Infra賺很薄的利潤,但它的規(guī)模會很大。我一直認為,AI Infra基礎設施領(lǐng)域應該是一個非常低毛利、海量規(guī)模、長周期的市場。你想想,如果水、電、氣、煤都成了暴利,這個行業(yè)能走多遠嗎?

當然,國內(nèi)Infra企業(yè)之間的定位都不太一樣。如果不算公共基礎設施,只要私有化部署的話,這類公司還是可以盈利的。

對于公有云的AI Infra,就是一個大規(guī)模、低毛利的產(chǎn)業(yè)。即便連英偉達,我認為它的毛利也會下降。

我的觀點一直沒變化。在訓練時代,英偉達一家獨大,但推理時代百花齊放。今天,不同類型的應用,不同類型的模型,不同類型的參數(shù),使用的卡型也會不一樣,英偉達在訓練時壁壘和護城河特別強,但推理時代會面臨巨大挑戰(zhàn)。所以,隨著競爭加劇,毛利率下降,這是一個必然。

如今從技術(shù)趨勢來看,就是從AI算力訓練,走向推理;從中心化架構(gòu)到分布式的架構(gòu),推理計算卡百花齊放,需求不同、應用場景不同,百花齊放必然會導致行業(yè)的競爭加劇,自然也會帶來毛利下降。這是我的完整邏輯。

問:國產(chǎn)算力卡目前還面臨哪些挑戰(zhàn)和機遇?

姚欣:首先,從此前的訓練,到如今的推理,我認為國產(chǎn)卡的春天到了,特別是加了PD分離架構(gòu)之后,很多專注于做推理任務的計算卡,未來空間機會還是很大的。

其次,另一個機會在于,國產(chǎn)GPU芯片兩年迭代一次,這是一個穩(wěn)步規(guī)劃的方向。但這里面的挑戰(zhàn)在于,國產(chǎn)卡與軟硬件、模型之間的結(jié)合,因為模型的迭代速度還是很快的,比如去年MoE還不是主流,今年全都是MoE架構(gòu)的模型。

為什么會有Wintel聯(lián)盟,當年比爾·蓋茨講過一句話,每一代英特爾發(fā)布的芯片的高性能,都遠遠不夠軟件所吞吃掉的能力,本質(zhì)上,Windows和英特爾芯片之間是一個互補關(guān)系。如今,今天這種硬件、軟件之間的快速迭代、良性結(jié)合,會推動AI時代加速到來。

最后,要想做好硬件,就要懂軟件;要想做好軟件優(yōu)化,就要了解底層硬件架構(gòu),這樣的端到端垂直整合能力越來越重要,只做其中的一層是沒戲的。大的技術(shù)趨勢,主要還是由軟件驅(qū)動硬件的迭代,或者說由模型架構(gòu)的進步,去驅(qū)動硬件的性能迭代。而PPIO要做的就是最懂模型和應用的Infra公司。

問:英偉達H20恢復銷售之后,國產(chǎn)卡是否將面臨更多競爭壓力?

姚欣:我覺得經(jīng)過這次教訓,大家都清楚AI芯片“卡脖子”,隨時斷供,即使能用,也要再找替代。不只是國產(chǎn)GPU公司,今天連所有依賴AI發(fā)展的互聯(lián)網(wǎng)大廠都將面臨算力卡國產(chǎn)化轉(zhuǎn)型,做多卡融合、多卡兼容解決方案,這是一個普遍趨勢。

今天,你不能撿著最好的用,一定是你有啥用啥,所以說,這種多卡融合是一個基礎和必備的方向。

問:您認為中美AI算力還有多少差距?

姚欣:PPIO屬于云計算層面。所以在我看來,對于算力底層來說,中美AI算力布局方式是不太一樣的。

中國的AI底層是做算力網(wǎng)絡、東數(shù)西算。雖然中國在最先進性能上面比不過英偉達最先進的GPU卡,但中國在各地建設這么多資源,做算力樞紐、調(diào)度和整合。在我們看來,算力調(diào)度、算力網(wǎng)絡只有中國才能長出來,就像高鐵網(wǎng)和電力調(diào)度網(wǎng)只有在中國才能發(fā)展起來,我們能做的算力核心在于,中國的網(wǎng)絡基礎設施已經(jīng)足夠領(lǐng)先了。

而美國的算力底層就不一樣了。美國在做星際之門,堆20萬張卡、拿核電站在發(fā)電,因為美國沒有統(tǒng)一電網(wǎng),每個州的電網(wǎng)都不通,電費計價都不一樣。所以,美國在加大基礎設施建設,逐步建公路、建電網(wǎng),而美國的優(yōu)勢在于,卷高科技、卷核聚變,讓數(shù)據(jù)中心與核電能源實現(xiàn)互通和整合。

然而,問題存在于,10萬卡互聯(lián)都有數(shù)據(jù)中心散熱,但20萬張、50萬張卡的時候,光互聯(lián)和散熱能力無法解決,而且可能會帶來很大的問題。當這個數(shù)據(jù)中心啟動的時候,對于電網(wǎng)的沖擊相當于在一瞬間增加了一個中小型城市的用電負荷。

所以,星際之門對于散熱的挑戰(zhàn)、能耗的挑戰(zhàn)、電網(wǎng)的沖擊、能源的沖突等都有一定的局限性,大家會質(zhì)疑推理是否需要集中化。

在我看來,推理不需要集中。推理是典型的分布式,基礎模型需要不斷迭代,長期來看,智算中心的訓推不會長期在一起的,訓推一定是分離的。未來,訓練集群和推理集群一定是兩個集群,現(xiàn)在訓推一體是為了訓練削峰填谷,因為訓練任務之間是不能夠保證百分百銜接。

長期看,推理算力占比達到95%,訓練只占據(jù)5%。所以,未來大量數(shù)據(jù)中心需要分布式以及海量的推理優(yōu)化,如何把數(shù)十萬張卡用好,其實是一個關(guān)鍵性的技術(shù)趨勢。

問:近期,人形機器人賽道非?;鸨?,但機器人似乎不完全用云計算,您認為機器人或具身智能有非常強的算力需求嗎?

姚欣:機器人、自動駕駛的實時計算,需要毫秒級的處理速度,這個就只能用本地化算力。未來機器人需要實時理解物理環(huán)境,作出自主決策和判斷,那么各類感知,規(guī)劃,空間交互中都需要消耗大量tokens,而且對時延敏感,那么就需要在網(wǎng)絡邊緣側(cè)能夠部署大量AI推理算力。

不同的算力結(jié)構(gòu)都有它特定用途。

一般來說,機器人計算用常規(guī)端側(cè)AI芯片就夠用,但它需要更高性能的話,就要跑在低時延的云側(cè),這就是我們要做邊緣云、AI推理云的意義所在。而且,如果運行包括復雜任務拆解、推理、形成代碼等場景,至少需要30B參數(shù)規(guī)模,而且 Agent也會運行在云端。

所以,未來我們的邊緣云、AI推理云兩個業(yè)務會融合“會師”的,云、邊、端各有各的需求。

問:PPIO的最終目標是什么?

姚欣:我一直希望做面向未來的新一代AI應用的云計算公司。

早在2018年我二次創(chuàng)業(yè)之前,我在藍馳做投資,當時我就思考,機器人、自動駕駛、VR/AR這些技術(shù)未來都能實現(xiàn)。5年、10年、20年后,就像當年我們就用抖音、用微信一樣,大家對于計算需求會成千上萬倍提升。

同時,大家對于計算的需求,逐漸從中心化,再向云邊端側(cè)遷移,背后這個叫“數(shù)據(jù)引力效應”計算概念,就是隨著數(shù)據(jù)處理下沉,計算也要逐步下沉,這是計算機的范式遷移。

如果把計算機的歷史拉長一點。計算機就是20年中心化、20年分布式。

之前,從IBM大型機到PC機時代,后面互聯(lián)網(wǎng)早期誕生時的核心是云計算。如今,計算走向分布式,所以,這是20年為周期的計算架構(gòu)的范式轉(zhuǎn)變。

如今,我認為中心化模式到了一個階段性頂點,雖然它還能再保持10%、20%的增速,但更大的增長是分布式算力,尤其是邊端側(cè)算力爆發(fā)式增長。這就是2018年我們PPIO為什么要做分布式云、做邊緣計算的原因,當時我們看到了新的趨勢,未來自動駕駛、機器人等場景都將需要分布式的算力。

(本文首發(fā)于鈦媒體App,作者|林志佳,編輯|蓋虹達)

本文系作者 林志佳 授權(quán)鈦媒體發(fā)表,并經(jīng)鈦媒體編輯,轉(zhuǎn)載請注明出處、作者和本文鏈接。
本內(nèi)容來源于鈦媒體鈦度號,文章內(nèi)容僅供參考、交流、學習,不構(gòu)成投資建議。
想和千萬鈦媒體用戶分享你的新奇觀點和發(fā)現(xiàn),點擊這里投稿 。創(chuàng)業(yè)或融資尋求報道,點擊這里。

敬原創(chuàng),有鈦度,得贊賞

贊賞支持
發(fā)表評論
0 / 300

根據(jù)《網(wǎng)絡安全法》實名制要求,請綁定手機號后發(fā)表評論

登錄后輸入評論內(nèi)容

掃描下載App