想象一下,你讓它幫你訂酒店,它點進了一個有釣魚代碼的網(wǎng)頁,然后真的把你信息填了進去……你根本都不知道它被套路了,因為它是自動執(zhí)行的。
這就不是傳統(tǒng)的“你上當”,而是“你的AI替你上了當”。
他們不是沒防范:
Agent 接入了行為監(jiān)控機制,能識別一些常見的釣魚操作;
也訓練它忽略“看起來不對勁”的網(wǎng)頁指令;
更引入了一個叫 “Takeover mode” 的模式——你可以選擇手動輸入敏感信息,AI不碰。
但 CEO 山姆·奧特曼也明確說了:
“這是新技術(shù),我們也還不知道所有的威脅會是什么。”
這話聽上去很負責,但說實話,作為普通用戶,我聽完是有點發(fā)怵的。
因為這意味著:一邊是前所未有的效率,另一邊是還不確定的風險。
那問題來了:我愿不愿意“讓 AI 替我決定”?
我開始認真想一個問題:
“什么事我愿意交給 AI?什么事必須自己來?”
寫郵件、查資料、對比價格,這些我可以交給它。
但訂酒店、刷信用卡、簽約付款這種事,哪怕它效率再高,我也希望“最后一步”自己來。
原因很簡單——AI 沒有責任。
你今天要是找助理辦錯事,你還能追責。但 AI 是“工具”,出錯了責任還是你。
更別說現(xiàn)在的 AI,還不是真的懂判斷,它只是按規(guī)律、按訓練決定“下一步要做什么”。
所以不是它不聰明,而是它不靠譜——至少不“負責”。
ChatGPT Agent 可能是目前最接近“智能助理”的存在,它甚至可以自己在網(wǎng)上干活、幫你完成現(xiàn)實任務(wù)。但在這個“驚艷”的背后,也暴露了一個現(xiàn)實:
我們與 AI 的關(guān)系,已經(jīng)從“它幫我干活”,開始邁向“它替我做決定”。
如果這是趨勢,我們必須在每一次“授權(quán)”之前問清楚:
我到底愿不愿意,接受一個不具備常識、也沒有責任感的系統(tǒng),替我做決定?
這不只是技術(shù)問題,更是一個信任問題。
我目前的答案是:用它,但不放權(quán)。
你呢?
快報
根據(jù)《網(wǎng)絡(luò)安全法》實名制要求,請綁定手機號后發(fā)表評論