文 | 解碼Decode
去年5月,當(dāng)大模型廠商卷起價格戰(zhàn)時,Tokens大概率是出鏡率最高的英文單詞。
簡單來說,Tokens是大語言模型(LLM)用來切割自然語言文本的基本單位,可以直觀的理解為“字”或“詞”。
就像工業(yè)時代用“千瓦時”度量電力消耗,互聯(lián)網(wǎng)時代用“GB”度量數(shù)據(jù)流量,AI時代用“Token”來度量模型的工作量。一個Token可以理解為一個詞或詞片段(中文里可能是一個字或詞語)。
Tokens的調(diào)用量,本質(zhì)反映了模型推理過程的計算量。而計算量的高或低,直接揭示了模型在實際應(yīng)用中的能力、成本、速度和可行性。
因此,從Tokens角度跟蹤AI應(yīng)用落地進展,就是一個非常深刻且切中要害的視角。
它意味著我們將AI從一種“黑箱魔法”或純粹的技術(shù)概念,拉回到了一個可度量、可分析、可商業(yè)化的實際生產(chǎn)要素的層面。
簡單來說,這意味著我們不再只關(guān)注AI“能做什么”,而是開始量化分析它“做了多少”、“效率多高”、“成本多少”以及“價值多大”。
誰在消耗tokens?
模型廠商以tokens為主要定價單位的底層邏輯是:模型調(diào)用時的tokens消耗量與相應(yīng)算力投入存在強關(guān)聯(lián)性。而另一條暗線則是,算力投入鏈接了營收與tokens調(diào)用量。
換個說法就是,模型廠商營收與其tokens調(diào)用量呈現(xiàn)顯著同步的高增趨勢。
2024年6月至2025年6月,OpenAI大模型基礎(chǔ)設(shè)施——微軟Azure云的日均tokens調(diào)用量從0.55萬億上漲至4.40萬億,與此同時,OpenAI年化營收(ARR)從2024年12月的55億美元增長至2025年6月的突破100億美元,并在2025年8月達到120億-130億美元。
也就是說,誰消耗tokens更多誰就是基模廠商的主流商業(yè)模式。
就目前來看,OpenAI、Anthropic、字節(jié)跳動等基模廠商主要有C端和B端兩種,其中C端包括原生聊天助手、工具類原生應(yīng)用(影視、圖片、編程等)的訂閱收入、付費功能以及與內(nèi)部C端產(chǎn)品整合后的間接收入(如Google Chrome);
B端則包含為大客戶落地AI應(yīng)用和企業(yè)直接API調(diào)用。
C端的tokens調(diào)用量,主要貢獻者有三個:
1 大流量池產(chǎn)品內(nèi)部的附加AI功能
2024年5月谷歌搜索上線的AI Overview功能,至2025年二季度月活已超20億。國海證券預(yù)測,AI Overview功能單日tokens消耗量在1.6至9.6萬億區(qū)間內(nèi),在2025年7月Google日均tokens調(diào)用量中的占比為4.9%至29.4%。
抖音、剪映、今日頭條等同樣為大流量池C端產(chǎn)品,月活量級已達到10億(2025年3月)、7億(2025年7月)、2.6億(2024年下半年月均)。
百度之于搜索、美圖秀秀之于圖像,大流量C端應(yīng)用的AI改造都是上述邏輯。據(jù)非凡產(chǎn)研,2025年7月百度AI搜索訪問量居國內(nèi)智慧搜索品類第一、美圖秀秀的國內(nèi)訪問量/存量月活、新增下載量依舊居圖像品類第一,且月度收入仍在環(huán)比提升。
2 原生聊天助手
ChatGPT聊天助手保有較大C端用戶規(guī)模,2025年7月APP+網(wǎng)頁端合計月活達10.15億,是OpenAI重要Tokens調(diào)用量驅(qū)動因素。
3 視頻賽道擁有較大用戶基礎(chǔ)的新興應(yīng)用
除產(chǎn)品內(nèi)置AI功能、聊天助手外,圖像、視頻、陪伴、辦公、教育賽道內(nèi)均出現(xiàn)了有較大潛力的C端新興AI應(yīng)用。
字節(jié)跳動進行多維度布局,推出醒圖/星繪(圖像)、即夢(視頻)、貓箱(陪伴)、豆包愛學(xué)(教育)等AI應(yīng)用。
其中醒圖、即夢7月月活達到4924萬(當(dāng)月收入59萬美元)、1393萬(當(dāng)月收入58萬美元),已成為圖像、視頻賽道內(nèi)擁有較大用戶量級的產(chǎn)品;貓箱7月月活794萬,當(dāng)月收入達112萬美元,商業(yè)轉(zhuǎn)化效率較高。
例如接入gpt-image-1、Leonardo.AI的Canva,用于文生圖、文生視頻、圖像補全等除文本模態(tài)外的編輯、生成場景。根據(jù)Gemini、Kimi等大模型的折算口徑,單張圖片的輸出(輸入)tokens消耗量在1024(kimi)—1290(Gemini)之間。
B端tokens調(diào)用量主要源于企業(yè)級AI應(yīng)用。其所呈現(xiàn)出來的特征,一是滲透率較高,Google發(fā)布的“全球601個領(lǐng)先企業(yè)AI應(yīng)用案例”顯示,各大規(guī)模的企業(yè)已開始嘗試將生成式AI投入生產(chǎn),涉及汽車與物流、商業(yè)與專用服務(wù)、金融服務(wù)、醫(yī)療與生命科學(xué)、酒店與旅游、制作、工業(yè)與電子、媒體、營銷與游戲、零售、科技、通信、公共部門與非盈利組織”11大行業(yè)。
二是基模廠商的B端收入比例較大。
數(shù)據(jù)預(yù)測2025年OpenAI來自B端的ARR收入占比達54%;Anthropic占比達80%。谷歌透露Gemini企業(yè)客戶超過8.5萬家,推動調(diào)用量同比增長35倍;火山引擎大模型收入2024年在國內(nèi)公有云市場中份額排名第一,占比達46.4%(外部使用量,不包括豆包等內(nèi)部APP)。
技術(shù)迭代解鎖應(yīng)用需求
越來越多的tokens調(diào)用量,并非因為更大參數(shù)的大模型,而是推理增強、多模態(tài)、Agent化、長上下文轉(zhuǎn)型共同作用的結(jié)果。用一句話概括既是:技術(shù)迭代解鎖應(yīng)用需求。
以GPT-5和Grok4為例:
GPT-5把“更強的推理能力(通過引入test-timecompute)+多模態(tài)+更長上下文+更嚴(yán)格的安全控制等”置于產(chǎn)品默認(rèn)層面;
Grok4核心升級則是把“原生工具調(diào)用+多代理協(xié)同推理+超長上下文等”做成一個可商用產(chǎn)品。
GPT-5和Grok4如此設(shè)置的目標(biāo),是希望借助技術(shù)迭代增強AI在更復(fù)雜、更具備“生產(chǎn)力”的關(guān)鍵場景下的實用性、準(zhǔn)確性,并且使得AI應(yīng)用加速落地。
舉個例子,假設(shè)原來1輪客服對話服務(wù)消耗200tokens,升級后客服問答場景中的大模型推理過程將擴展成:
客戶意圖澄清+內(nèi)部知識庫檢索+邏輯校驗+答案潤色4個環(huán)節(jié),即4輪內(nèi)部推理,每輪150~200tokens,最終消耗600至800tokens。
類似的案例在對應(yīng)的推理增強、多模態(tài)、Agent化、長上下文轉(zhuǎn)型中都能找到,其最終結(jié)果是雙向增強,存量AI應(yīng)用場景的解決方案更好,對應(yīng)的tokens調(diào)用量也倍數(shù)增長。
隨著技術(shù)趨勢的不斷推進,大量原本因“不準(zhǔn)、不全、不落地”而被擱置的需求將被解鎖。當(dāng)準(zhǔn)確率、可控性跨過可行性線后,用戶特別是B端企業(yè)(有生產(chǎn)力場景需求)或?qū)挠^望轉(zhuǎn)為批量采購。
總結(jié)起來就四點,推理增強把能用變成敢用、多模態(tài)把單點工具變成端到端工作流、Agent化把對話變成可審計的業(yè)務(wù)系統(tǒng)、長上下文把項目級任務(wù)放進模型。
與此同時,雖然tokens調(diào)用量倍數(shù)增長,但定價卻是直線下降。
比如xAI的Grok-4-Fast,輸出百萬Token僅需0.5美元(約3.5元人民幣),但比起國內(nèi)基模廠商來還是不夠狠,去年9月阿里通義千問主力模型最高降價85%,Qwen-Turbo低至0.3元/百萬Tokens。
其中一部分原因是基模廠商的價格戰(zhàn),讓“一百萬Tokens的錢,都買不了缽缽雞”,也有一部分是因為模型廠優(yōu)化算力成本的結(jié)果。
2024-2025年,為優(yōu)化大模型算力成本,模型廠商進行了壓縮大模型單次推理計算量(稀疏化、量化、投機解碼)、提升GPU利用率(連續(xù)批處理、編譯器融合)以及換用租金更便宜的云、芯片(國產(chǎn)替代、專用ASIC)等方面的嘗試,平均tokens定價實現(xiàn)了較大降幅。
此外模型廠商還進一步通過“模型分層+價格分層”的多樣化策略壓低模型的使用門檻,讓中小預(yù)算客戶也可接入,比如:OpenAI 用GPT-5-mini/nano覆蓋輕量場景;Google以Gemini 2.5 Flash 主打“極速低價”;Anthropic用Claude 3.5 Haiku 提供中等規(guī)模、高性價比選項等。
因此一個AI飛輪就已成型,當(dāng)模型使用成本下降,企業(yè)/個人調(diào)用ROI隨之上升,更多應(yīng)用需求從觀望向采購轉(zhuǎn)化,促進tokens調(diào)用量倍數(shù)增長的同時,AI應(yīng)用隨之迎來生態(tài)繁榮。
Token經(jīng)濟學(xué)就意味著,可以直觀的獲得以下幾個關(guān)鍵進展的洞察:成本與經(jīng)濟效益的量化、技術(shù)效能與模型能力的評估、應(yīng)用場景的深化與演化以及商業(yè)模式與市場格局的清晰化。其中成本與經(jīng)濟效益的量化是最直接、最商業(yè)化的意義。
尾聲
如果把AI大模型想象成一個“知識電廠”,Token就是它發(fā)出的“度電”,你的提示詞就是“合上電閘”的指令,AI應(yīng)用開發(fā)者就像是“家電制造商”。
從Tokens角度跟蹤進展,就相當(dāng)于電力公司和社會在跟蹤:
- 全社會總用電量(AI應(yīng)用的總規(guī)模)增長了多少?
- 哪種家電(哪種AI應(yīng)用)最耗電(消耗Token最多)?
- 發(fā)電技術(shù)是否進步了(模型效率)?每度電的成本是否下降?
- 新的高能效家電(高效的AI應(yīng)用)是否被開發(fā)出來?
從Tokens角度跟蹤AI應(yīng)用落地進展,意味著AI行業(yè)正在走向成熟、務(wù)實和工業(yè)化。它摒棄了早期對參數(shù)規(guī)模和技術(shù)炫技的過度關(guān)注,轉(zhuǎn)而聚焦于一個更根本的問題:如何以可承受的成本,可靠地利用AI能力來解決實際問題并創(chuàng)造商業(yè)價值。
這標(biāo)志著AI不再是實驗室里的玩具,而是真正成為了驅(qū)動下一代技術(shù)和商業(yè)創(chuàng)新的基礎(chǔ)效用。作為從業(yè)者、投資者或觀察者,理解Token經(jīng)濟學(xué),就如同在互聯(lián)網(wǎng)時代理解帶寬成本一樣,至關(guān)重要。







快報
根據(jù)《網(wǎng)絡(luò)安全法》實名制要求,請綁定手機號后發(fā)表評論