前陣子被捧上神壇的OpenClaw,現(xiàn)在已經(jīng)成了人人喊打的吞金獸。
很多人把問(wèn)題歸咎于大模型不夠聰明,或者開(kāi)源項(xiàng)目 Bug 太多。但我們體驗(yàn)一周后,可以明確告訴大家:都不是。核心原因就倆字:錯(cuò)配。
龍蝦有很多創(chuàng)新,從心跳?;顧C(jī)制到全屏信息識(shí)別接管無(wú) API 軟件,再到單模型全場(chǎng)景默認(rèn)配置的算力濫用,OpenClaw 從誕生起就是為開(kāi)發(fā)者調(diào)試而設(shè)計(jì)的,壓根沒(méi)料到會(huì)破圈到我們普通人手上。

OpenClaw三大Token黑洞
這種設(shè)計(jì)場(chǎng)景和使用場(chǎng)景的嚴(yán)重錯(cuò)配,才是它越養(yǎng)越貴、越用越蠢的根本原因。
今天我們就來(lái)拆解龍蝦這三大致命 Token 黑洞,講講 OpenClaw 的進(jìn)化方向,幫你判斷到底要不要養(yǎng)龍蝦、又該怎么養(yǎng)。歡迎來(lái)到《這事鈦大了》。
首先是第一大Token黑洞:心跳?;顧C(jī)制。它是開(kāi)發(fā)者的神器,也是很多人一覺(jué)醒來(lái)欠費(fèi)幾百塊的罪魁禍?zhǔn)?。它的設(shè)計(jì)初衷是通過(guò)定時(shí)同步數(shù)據(jù),讓AI了解電腦的實(shí)時(shí)狀態(tài)。這也是 OpenClaw 能像人類(lèi)一樣接管電腦的關(guān)鍵。對(duì)開(kāi)發(fā)者來(lái)說(shuō),它主要解決了兩大難題:
一是環(huán)境對(duì)齊,通過(guò)定期同步屏幕和剪貼板,大模型始終能知道電腦當(dāng)下發(fā)生了啥,收到命令就能無(wú)縫執(zhí)行,不至于出現(xiàn)狀態(tài)斷層;二是保障長(zhǎng)任務(wù)穩(wěn)定,在數(shù)據(jù)爬取、跨表格生成這種動(dòng)不動(dòng)幾個(gè)小時(shí)的長(zhǎng)周期任務(wù)里,心跳機(jī)制能避免因?yàn)榫W(wǎng)絡(luò)波動(dòng)或者模型超時(shí)導(dǎo)致任務(wù)崩盤(pán),原理類(lèi)似微信文件的斷點(diǎn)續(xù)傳。
![]()
龍蝦完整技術(shù)架構(gòu)圖 引自ByteMonk
這個(gè)面向開(kāi)發(fā)者的創(chuàng)新,之所以會(huì)成為普通用戶(hù)的Token黑洞,關(guān)鍵在于大模型的底層技術(shù)邏輯。Transformer 架構(gòu)本身是無(wú)狀態(tài)的,每次見(jiàn)面都會(huì)忘記你是誰(shuí),所以大模型每次 API 調(diào)用,必須帶上完整上下文才能正常運(yùn)行。
每次心跳校驗(yàn),都要上傳屏幕 OCR 結(jié)果、會(huì)話(huà)摘要等全量數(shù)據(jù),閑置開(kāi)銷(xiāo)甚至超過(guò)實(shí)際干活的花費(fèi)。
之所以這么設(shè)計(jì),是因?yàn)殚_(kāi)發(fā)場(chǎng)景對(duì)穩(wěn)定性要求極高,一次重度任務(wù)中斷可能意味著幾天白忙。但咱普通人不靠這玩意賺錢(qián),所以根本燒不起。
更離譜的是,為了避免AI人設(shè)崩塌,龍蝦每次打包的上下文里,除了實(shí)時(shí)屏幕畫(huà)面和對(duì)話(huà)信息,還必須捆綁 AGENT.md 和 SOUL.md 里幾千字的固定配置文件。就像老板每次給員工派活,都要先逼他背一遍公司章程一樣。 這筆高頻繳納的系統(tǒng)提示詞稅,也導(dǎo)致Token消耗直接起飛。
![]()
龍蝦記憶層架構(gòu) 引自ByteMonk
新手優(yōu)化方法有兩個(gè)。
一是調(diào)低心跳頻率,把默認(rèn)間隔拉長(zhǎng)到幾小時(shí),沒(méi)有任務(wù)時(shí)直接關(guān)閉心跳。
二是分層運(yùn)行,用本地小模型處理心跳任務(wù),只有在遇到需要強(qiáng)推理的復(fù)雜任務(wù)時(shí),再呼叫云端GPT、Claude這類(lèi)大模型。
此外,業(yè)界也在探索更高效的解決方案。
第一種是上下文緩存技術(shù),能直接砍掉八九成消耗,原理是在云端 API 把系統(tǒng)提示詞、歷史對(duì)話(huà)標(biāo)記為固定前綴生成緩存,后續(xù)心跳只需要傳輸增量信息,模型復(fù)用緩存就能跳過(guò)重復(fù)計(jì)算。目前主流API已經(jīng)跟進(jìn)類(lèi)似設(shè)計(jì),可這些緩存的存活時(shí)長(zhǎng)往往只有5到10分鐘,你想用低成本緩存,反而要調(diào)高心跳頻率,不然緩存過(guò)期就白費(fèi)了??傊冎ㄗ屇愣嗵湾X(qián)。
第二種方案更徹底,那就是把龍蝦的按時(shí)輪詢(xún)改成事件驅(qū)動(dòng)模式。主流思路有兩種,一是把屏幕監(jiān)控這類(lèi)任務(wù)直接交給Windows等操作系統(tǒng),只有微信彈窗之類(lèi)特定事件觸發(fā)時(shí)才喚醒模型,但這條路需要完善生態(tài),還要做好用戶(hù)隱私保障。
二是視覺(jué)差分?jǐn)r截,用SSIM結(jié)構(gòu)相似度等低算力算法提前比對(duì)屏幕,畫(huà)面沒(méi)變化直接取消請(qǐng)求,實(shí)現(xiàn)Token零消耗,操作門(mén)檻更低。
而OpenClaw的第二大 Token 黑洞,也是它最致命的資源錯(cuò)配,就是單模型。龍蝦默認(rèn)用同一個(gè)大模型處理全場(chǎng)景所有請(qǐng)求。
如果你為了省錢(qián),選擇包月套餐,會(huì)發(fā)現(xiàn)很多AI廠家為了控制成本,給你的都是10B以下的小模型,任務(wù)執(zhí)行智商直線下降,需要你時(shí)刻跟在模型屁股后面糾錯(cuò)。本來(lái)想靠 AI 偷懶,反而讓自己成了AI的保姆。
可如果你選擇高價(jià)接入深度思考模型,又會(huì)發(fā)現(xiàn)它們的強(qiáng)項(xiàng)是復(fù)雜邏輯推理、長(zhǎng)流程規(guī)劃和異常處理等高難度工作。但在實(shí)際運(yùn)行中,這些模型卻要承擔(dān)大量常規(guī)調(diào)度、固定流程觸發(fā)之類(lèi)機(jī)械性操作。關(guān)鍵是OpenClaw已經(jīng)內(nèi)置了像素級(jí)鍵鼠控制和窗口管理能力,模型只需要輸出標(biāo)準(zhǔn)化指令。用頂級(jí)大模型干這種粗活,不只是大材小用,還會(huì)帶來(lái)兩個(gè)致命副作用:
第一,執(zhí)行準(zhǔn)確率不升反降。高端深度模型思維鏈更長(zhǎng)、發(fā)散性更強(qiáng),面對(duì)簡(jiǎn)單的機(jī)械操作很容易陷入過(guò)度推理,加上普通用戶(hù)大多不會(huì)設(shè)置場(chǎng)景化硬約束,點(diǎn)一下就能搞定的事,往往會(huì)反復(fù)出錯(cuò)。
第二,Token消耗猛漲。深度模型處理簡(jiǎn)單操作時(shí),也會(huì)生成大量無(wú)用的推理和說(shuō)明內(nèi)容,不僅白白消耗 Token、增加成本,還會(huì)占滿(mǎn)上下文窗口,拖慢任務(wù)執(zhí)行速度。
龍蝦Gateway 網(wǎng)關(guān)層架構(gòu) 引自ByteMonk
所以,并不是大模型不夠聰明,而是沒(méi)做好算力分層,把聰明用錯(cuò)了地方。
優(yōu)化思路就是讓對(duì)的模型干對(duì)的事,把機(jī)械執(zhí)行類(lèi)的工作,交給10B參數(shù)以?xún)?nèi)的輕量化專(zhuān)用模型處理,像Qwen2-VL-7B之類(lèi)多模態(tài)模型,顯存只需要5-6GB,推理速度快,服從性也高。只有到需要?jiǎng)幽X子的復(fù)雜場(chǎng)景,才去調(diào)用昂貴的頂級(jí)深度思考模型,把好鋼用在刀刃上。
這套大小模型分層協(xié)同的優(yōu)化思路,像微軟 AutoGen、阿里通義 AgentScope、百度智能云 AgentBuilder 等全球頭部 AI 智能體框架都有嘗試,是業(yè)內(nèi)公認(rèn)的降本提效方向之一。
OpenClaw 最后一個(gè) Token 黑洞,是無(wú)差別的全屏掃描。
龍蝦能從眾多AI 智能體中殺出重圍,靠的就是強(qiáng)悍的端側(cè)計(jì)算機(jī)視覺(jué)能力:依托全屏掃描與 OCR 識(shí)別,它能像人一樣盯屏操作,精準(zhǔn)定位操作按鈕、自動(dòng)操控鍵鼠,還能強(qiáng)制接管沒(méi)開(kāi)放 API 的本地軟件,這是它的核心優(yōu)勢(shì),也是吞噬 Token 的黑洞
由于默認(rèn)全量掃描屏幕,龍蝦并不能區(qū)分有效信息與冗余內(nèi)容,哪怕只是簡(jiǎn)單的“打開(kāi)瀏覽器” ,屏幕邊角的廣告甚至桌面壁紙,都會(huì)被全部識(shí)別打包傳給模型。
更要命的是,大模型的圖像計(jì)費(fèi)邏輯與文本完全不同,它的Token消耗是和屏幕分辨率掛鉤的。在 ViT 架構(gòu)的底層邏輯中,模型無(wú)法像人眼那樣一眼掃全圖,必須把高清截圖拆分為512×512 像素的區(qū)塊逐一運(yùn)算。像4K或者帶魚(yú)屏,哪怕截圖里就一個(gè)確認(rèn)按鈕,也會(huì)被拆成數(shù)十個(gè)區(qū)塊,大量算力浪費(fèi)在無(wú)效像素上,單次Token消耗直接飆升到幾千。
目前這個(gè)問(wèn)題還沒(méi)有特別完善的解決方案,有開(kāi)發(fā)者選擇激活窗口聚焦,只掃描當(dāng)前操作窗口;也有人在研發(fā)非交互元素過(guò)濾,只識(shí)別可操作控件。像Anthropic 采用的 Computer Use 計(jì)算機(jī)控制,則通過(guò)“像素計(jì)數(shù)”設(shè)計(jì),把電腦屏幕畫(huà)面映射成了一個(gè)二維坐標(biāo)網(wǎng)格。識(shí)別后能直接返回X軸和Y軸的精準(zhǔn)操作坐標(biāo),不需要額外的視覺(jué)定位步驟,交互邏輯更接近人類(lèi)操作。
![]()
龍蝦執(zhí)行層架構(gòu) 引自ByteMonk
講到這里,大家應(yīng)該明白了。普通用戶(hù)頭疼的這三大Token黑洞,其實(shí)就是openclaw給開(kāi)發(fā)者群體準(zhǔn)備的三大創(chuàng)新。
技術(shù)沒(méi)有原罪,錯(cuò)配才是原罪。龍蝦很好,問(wèn)題是它并不是給我們普通人準(zhǔn)備的。要想真正解決上述問(wèn)題,你必須把自己變成開(kāi)發(fā)者,去不斷折騰和優(yōu)化。
如果覺(jué)得上述操作太麻煩,想直接上手大廠現(xiàn)成產(chǎn)品,我們后續(xù)也會(huì)推出全維度橫向測(cè)評(píng),幫你選出最靠譜的成品方案。后續(xù)鈦媒體AGI還將持續(xù)圍繞 OpenClaw 的全場(chǎng)景使用,推出更多深度評(píng)測(cè)內(nèi)容。感謝你的關(guān)注,我們下期見(jiàn)。
快報(bào)
根據(jù)《網(wǎng)絡(luò)安全法》實(shí)名制要求,請(qǐng)綁定手機(jī)號(hào)后發(fā)表評(píng)論