生存本能
如果說RSP 3.0的調(diào)整是主動妥協(xié),那么軍事領(lǐng)域的博弈,則是一場真正的底線考驗。
Anthropic曾公開承諾:“拒絕參與全自主武器和國內(nèi)大規(guī)模監(jiān)控。”
2026年2月24日,美國國防部長皮特·赫格塞斯當面向Anthropic CEO達里奧·阿莫迪下達了最后通牒:解除Claude模型的所有軍事用途限制(包括進攻性網(wǎng)絡(luò)行動),否則將面臨懲罰。截止時間是2月27日。
后果是什么?要么五角大樓動用《國防生產(chǎn)法》強制接管模型,要么將Anthropic列為供應(yīng)鏈風(fēng)險企業(yè)——這個標簽通常用于敵對國家的公司,一旦貼上,Anthropic將失去所有國防承包商的商業(yè)聯(lián)系。
2月27日,最后期限到來。阿莫迪未能及時與五角大樓敲定最終條款。截止時間剛過14分鐘,赫格塞斯宣布談判破裂,將Anthropic正式列為供應(yīng)鏈風(fēng)險。特朗普隨后下令聯(lián)邦機構(gòu)停止使用Anthropic技術(shù)。
但故事沒有在這里結(jié)束。
3月9日,Anthropic正式向加州聯(lián)邦法院提起訴訟,指控美國政府的系列行動前所未有且不合法。3月26日,加州北區(qū)聯(lián)邦地區(qū)法院法官Rita Lin批準了Anthropic的初步禁制令申請,叫停了國防部的封殺令。法庭文件顯示,Anthropic提供了關(guān)鍵技術(shù)證據(jù):其模型在部署于軍方封閉環(huán)境后,公司本身無法遠程控制——這一證據(jù)戳穿了五角大樓的安全風(fēng)險指控。
Anthropic守住了這條底線,至少在這一回合。
但問題依然存在:底線能守多久?法院的裁定只是初步禁制令,不是終局。五角大樓可以換一種方式再來。而Anthropic的客戶名單里,依然有國防部的名字——那些作戰(zhàn)規(guī)劃和情報分析的合作,依然在繼續(xù)。
一個CMS配置失誤,3000份文件裸奔。
這不是黑客攻擊,不是系統(tǒng)漏洞,是最基礎(chǔ)的權(quán)限設(shè)置問題——和AWS S3存儲桶忘記關(guān)權(quán)限一樣低級。
劍橋大學(xué)研究員驗證了泄露材料的真實性:員工育兒假記錄、CEO閉門峰會細節(jié)、甚至內(nèi)部安全評估報告,全部暴露在互聯(lián)網(wǎng)上。
泄露文件中有一句值得注意的話:“Mythos預(yù)示著即將到來的一波模型浪潮,屆時模型將以遠超防御者努力的速度來利用漏洞。”措辭之重,不像市場部寫的,更像一份內(nèi)部預(yù)警。
一家正在打造史上最強網(wǎng)絡(luò)安全AI的公司,被最基礎(chǔ)的權(quán)限配置失誤暴露了內(nèi)部文件。這種燈下黑的現(xiàn)象在科技史上并不罕見:蘋果與FBI之爭、微軟補丁漏洞、Google內(nèi)部數(shù)據(jù)泄露——每一家科技巨頭都犯過類似的錯誤。
但Anthropic的不同在于:它的核心價值就是安全。當一家以安全第一立身的公司,連自己的內(nèi)部文件都保護不好,這本身就是一個值得追問的問題。
RSP 3.0的變化、國防部的最后通牒、CMS的低級失誤——這三件事拼在一起,勾勒出一個更深的困境:
AI行業(yè)正在經(jīng)歷一場安全敘事的重構(gòu)。
監(jiān)管真空:政府沒有建立統(tǒng)一的紅線,導(dǎo)致企業(yè)不敢單方面踩剎車。
競爭壓力:如果OpenAI和Google都在加速,任何一家公司的道德潔癖都可能變成競爭劣勢。
敘事演化:安全正在從一種工程約束,變成一種公關(guān)語言。RSP 3.0的透明披露,本質(zhì)上是在告訴資本市場:我們還在意安全,但請不要讓我們真的停下。
首席科學(xué)家Jared Kaplan的那句話,值得被反復(fù)討論:
“如果競爭對手飛速前進,我們單方面承諾暫停訓(xùn)練沒有意義。”
翻譯過來就是:除非所有人一起踩剎車,否則誰先停,誰先死。這就是AI安全的最大悖論。在監(jiān)管真空、競爭白熱化的今天,沒有一家公司敢做唯一的好人。
每個修改都有合理的解釋。技術(shù)邊界確實在模糊,監(jiān)管環(huán)境確實在變化,商業(yè)競爭確實在加速。但問題是:當安全承諾可以被修改,它還是承諾嗎?當人類在回路中成為免責(zé)聲明,安全還有意義嗎?
![]()
囚徒困境
Anthropic的困境,不是硅谷的孤例。中國AI公司同樣面臨“安全vs商業(yè)”的悖論。
不同的是,中國的監(jiān)管環(huán)境更明確。網(wǎng)信辦等部門的AI管理規(guī)定,為企業(yè)劃定了相對清晰的紅線。但紅線清晰不代表沒有壓力。當字節(jié)跳動、阿里、百度等巨頭加速迭代,創(chuàng)業(yè)公司同樣面臨“別人都在跑,我不能站著”的囚徒困境。
從Anthropic的教訓(xùn)中,中國AI公司可以帶走三點:
第一,安全承諾需要可執(zhí)行,不只是可傳播。 RSP 3.0的調(diào)整說明,安全一旦變成公關(guān)語言,就會失去可信度。承諾的價值不在于說得多漂亮,而在于能不能兌現(xiàn)。
第二,組織流程是安全的最后一道防線。 CMS失誤不是技術(shù)問題,是流程問題。再強的模型能力,也彌補不了最基礎(chǔ)的權(quán)限管理漏洞。當公司全力追求模型能力的指數(shù)級增長時,基礎(chǔ)架構(gòu)的穩(wěn)健性往往被忽視。
第三,底線需要提前劃定,而不是臨場博弈。 Anthropic守住了拒絕全自主武器,但作戰(zhàn)規(guī)劃的合作依然存在。這條線劃得清楚嗎?如果提前劃定,就不會被逼到墻角。對于中國AI公司來說,在監(jiān)管框架內(nèi)明確自己的安全底線,比在壓力面前臨時決策更主動。
Anthropic的泄露事件,最終會被修復(fù)。CMS權(quán)限會被重新設(shè)置,泄露的文件會從互聯(lián)網(wǎng)上消失,RSP 3.0會繼續(xù)執(zhí)行。
但那個問題會一直存在:當一家以安全第一立身的公司,在資本壓力和國家意志面前,一次次被逼到墻角,它還能守住多少底線?
Anthropic用被制裁、被列為供應(yīng)鏈風(fēng)險的代價,守住了拒絕全自主武器這條線。但這條線能守多久?五角大樓會換一種方式再來嗎?
答案從來不是模型更強、算力更大。答案是:把最基本的流程做好,把最基礎(chǔ)的承諾守住。
這是Anthropic給整個AI行業(yè)上的一課。也是最難的一課——因為在這一課里,Anthropic自己,既是那個抗爭的學(xué)生,也是那個需要反思的學(xué)生。
快報
根據(jù)《網(wǎng)絡(luò)安全法》實名制要求,請綁定手機號后發(fā)表評論