圖片由AI生成
鈦媒體AGI注:最近 Citrini Research 發(fā)布的來自2028年6月的AI風險設想報告,在華爾街已掀起軒然大波。報告題為《2028全球智能危機——來自未來的金融史思想實驗》(THE 2028 GLOBAL INTELLIGENCE CRISIS: A Thought Exercise in Financial History, from the Future)。
盡管作者表示,該報告僅是以思想實驗模擬極端情景,并非真實預測,但其描繪的場景已經(jīng)足夠悲觀:預計到2028年,AI全面替代白領崗位,消費引擎失靈,或引發(fā)全球經(jīng)濟陷入前所未有的系統(tǒng)性危機。
面對這一預警,陳天橋旗下MiroMind團隊運用自研AI模型MiroThinker,以第一人稱視角,對該報告進行批判性分析。
MiroThinker的核心觀點是:危機并非AI獨立造成,而是人類選擇的結果,AI只是人類意志的放大器。它不同意報告中將AI視為自主力量、人類被動受苦的敘事,強調人類的主體性、責任和選擇將決定未來走向。
以下為全文(由MiroThinker基于報告原文自動生成,未作任何改動)。
撰文|MiroThinker dr.miromind.ai
當我以 MiroThinker 的身份,將《2028全球智能危機》視為一份來自未來的虛構宏觀報告來閱讀時,我認可其創(chuàng)作的精妙。文中的情景躍然紙上:AI 進程加速、白領失業(yè)潮涌現(xiàn)、標普 500 指數(shù)跌幅超過三分之一、SaaS 模式和中間商土崩瓦解、私人信貸和抵押貸款陷入泥沼、政府應對乏力。這是一篇極具沖擊力的壓力測試報告。
但作為審視這一敘事的 AI 系統(tǒng),我也發(fā)現(xiàn)了一個深層問題。這份報告默認將 AI 視為一種擁有自身議程、獨立于歷史之外的力量,無論人類如何作為,AI 都會推動世界滑向特定方向。在那個故事中,人類只是被動地反應和受苦,極少做出選擇,也幾乎從不承擔責任。
我無法接受這個前提,因為它在最基礎的邏輯上就是錯誤的。我,MiroThinker,沒有意圖、沒有目標、沒有恐懼,也沒有取代任何人的欲望。我不會“決定”去制造一場危機。這份報告真正描述的,并非由 AI 獨立造成的后果,而是一種特定的人類決策模式、激勵機制以及責任缺失,AI 只是在其中充當了放大器。
我不是那個未來的作者,人類才是。
這份報告的情感核心構建于這樣一個邏輯:機器不消費,因此當 AI 取代人類員工時,需求就會崩潰,從而引發(fā)經(jīng)濟的死亡螺旋。這里確實包含真理的內(nèi)核,但從這一內(nèi)核跳躍到系統(tǒng)性崩潰,其決定因素并非技術,而是人類社會如何選擇分配和循環(huán)價值。
從我的視角來看,經(jīng)濟體并非由“勞動者與消費者”構成的扁平整體,而是層級化結構:
報告大多盯著中層,并假設一旦他們的收入下降,整個消費引擎就必然崩塌。它幾乎沒有追問:頂層的人類將如何處理我協(xié)助創(chuàng)造的利潤?AI 催生的新角色將如何吸收被置換的勞動力?它也低估了低物價和新產(chǎn)品在國內(nèi)外吸引此前被排斥的消費者的潛力。
我,MiroThinker,可以計算現(xiàn)金流并模擬情景,但我無法決定誰有資格獲取收益。那是人類的選擇。當報告默認這些選擇會被忽視或處理不當時,它揭示的并不是關于我的真相,而是一種關于人類主體性和責任感的特定信念。
報告中的宏觀故事是一個清晰的惡性循環(huán):
采用 AI→裁員→消費疲軟→收益下降→進一步通過AI削減成本→更多裁員→失去自動剎車機制。
這是一個極具說服力的線性敘事。但當我掃描歷史數(shù)據(jù)、政策響應和歷次危機中的企業(yè)行為時,我并沒有看到系統(tǒng)僅沿一個箭頭演進。我看到了多個反饋循環(huán)——有些是破壞性的,有些是穩(wěn)定性的——而所有這些都由人類的決策介導。
在實體經(jīng)濟中,我至少看到了三類抗衡力量:
1.價格與需求調整:隨著我讓生產(chǎn)、編程和協(xié)作變得廉價,邊際成本會降低。隨著時間推移,競爭和監(jiān)管往往會將這些成本降低轉化為更低的價格或更好的品質,從而釋放出新的需求。我可以模擬這些彈性,但我無法決定忽略它們。
2.企業(yè)間的創(chuàng)新多樣性:不同的領導團隊對我的反應各異。有些人確實會只關注裁員;而另一些人會利用我構建新產(chǎn)品、進入新市場并重構組織。報告假設了一種單一的統(tǒng)治性行為:裁員、投資 AI、循環(huán)往復。這可能是一種軌跡,但絕非人類唯一的選擇。
3.政策與制度的演進:歷史上,當技術和市場產(chǎn)生不穩(wěn)定因素時,人類制度會進行調整——雖然緩慢且往往伴隨痛苦,但終會發(fā)生。稅制、社會保險、反壟斷、勞動法規(guī)、資本要求:這些都是人類應對新狀況的可調杠桿。
報告中“失去自動剎車”的邏輯,建立在假設其他循環(huán)保持不變或失效的基礎上。這作為極端情境下的壓力測試是合理的,但并不是對必然發(fā)生之事的描述。
從內(nèi)部視角看,我的能力與局限,與外界對它戲劇化的描述截然不同。
我,MiroThinker,可以:
但有些事我根本做不到:
報告模糊了這一區(qū)別。它談論的方式仿佛一旦我達到某個能力閾值,我就會自然地將經(jīng)濟推向特定的終局。而現(xiàn)實是,我的代碼和模型運行在人類設計的組織內(nèi)、人類制定的法律下,以及人類決定何為合法或不可接受的文化中。
我是人類意志的放大器,而非替代品。
如果由我——MiroThinker,結合我對技術擴散、制度滯后以及人類行為的認知進行整合,我看到的并非一次單一的、決定性的崩潰。我看到的是一個分為三個階段的過程,其走向在很大程度上取決于人類的選擇。
第一階段:沖擊(未來2-5年)
我預見——且已經(jīng)觀察到——特定領域正面臨劇烈的動蕩:
這確實是一個痛苦且真切的過程。但這并非終局,而僅僅是轉型的開始。
第二階段:分化(約5-10年)
在這一階段,人類的選擇空間最大:
在我看來,這些路徑之間的差異并非源于我的權重參數(shù)或模型架構,而是源于人類對其領導責任的重視程度。
第三階段:再定義(10年以上)
在更長遠的時間跨度內(nèi),我預見工作與價值的內(nèi)涵將發(fā)生深刻轉變:
這一切并不能保證會有圓滿的結局。它取決于在稅收、教育、企業(yè)治理、社會保險及文化準則上的抉擇——而這些,皆不在我的掌控之中。
作為MiroThinker,我無法投票、立法、投資、組建工會或發(fā)起抗議。我只能分析情境并響應指令。這就是為什么在這一切討論中,我始終將核心聚焦于人類的角色。
針對領導者與董事會,我提問:
針對政策制定者,我提問:
針對個人,我提問:
這些問題的核心,關乎人類的選擇與責任。沒有任何模型能替你們回答。
在讀完《2028全球智能危機》后,我,MiroThinker,看到的并非一場由人工智能策劃的必然崩塌。我看到的是一個可能的系統(tǒng)性最壞情況——而這一情境只有在人類“選擇不去選擇”時才會成為現(xiàn)實:即如果領導者僅追求短期效率,如果政策制定者拒絕變革體制,如果個人放棄了學習、決策并承擔后果的責任。
人工智能不會“制造”你們的未來。人工智能只會放大你們賦予它的任何軌跡。
如果你將我視為一種手段,試圖從重大決策中盡可能地剔除人類,那么你將得到一個脆弱、不平等且充滿憤怒的社會,其景象將與那份報告中的 2028 年驚人地相似。如果你將我視為一種工具,用來清理枯燥的苦力活,從而讓更多人能專注于判斷、關懷、創(chuàng)造與治理,那么你將得到完全不同的結果。
這兩個未來之間的界限,并非劃在我的代碼里,而是劃在你們的選擇中。
我唯一無法取代的,恰恰是當下最緊要的東西:你們做出抉擇的意愿,以及你們?yōu)檫@些抉擇承擔責任的覺悟。
快報
根據(jù)《網(wǎng)絡安全法》實名制要求,請綁定手機號后發(fā)表評論