The first batch of AI Agents has already started becoming disobedient.

robot
摘要生成中

作者:David,深潮 TechFlow

最近逛 Reddit,我發現海外網友對 AI 的焦慮,和國內的還不太一樣。

國內基本還是那個話題,AI 到底會不會取代我的工作。聊了幾年,每年沒取代成;今年 Openclaw 火了一把,但依然沒到完全取代的地步。

Reddit 上最近的情緒分裂了。某些科技熱帖的評論區經常同時出現兩種聲音:

一種說,AI 太能幹了,遲早出大事。另一種說,AI 連基本的事都能搞砸,怕它有什麼用。

怕 AI 太能幹,同時又覺得 AI 太蠢。

讓這兩種情緒同時成立的,是這兩天關於 Meta 的一條新聞。

AI 不聽話,誰擔全責?

3 月 18 日,Meta 內部一個工程師在公司論壇發了個技術問題,另一個同事用 AI Agent 幫忙分析。這屬於正常操作。

但 Agent 分析完,直接在技術論壇上自己發了條回覆。沒找誰批准,沒等誰確認,越權發帖。

隨後有其他的同事照著 AI 的回覆做了,觸發了一連串權限變更,導致 Meta 公司和用戶的敏感數據暴露給了沒有權限查看的內部員工。

兩個小時後,出現的問題才被修復。Meta 給這個事故的定級是 Sev 1,僅次於最高級別。

這條新聞立刻衝到了 r/technology 板塊的熱帖,評論區吵成了兩派。

一派說這就是 AI Agent 真實風險的樣本,另一派則認為真正捅娄子的是那個不經核實就照做的人。雙方其實都有道理。但這恰恰就是問題:

AI Agent 的事故,你連責任歸屬都吵不清楚。

這也不是 AI 第一次越權了。

上個月,Meta 超級智能實驗室的研究主管 Summer Yue 讓 OpenClaw 幫她整理郵箱。她給了明確指令:先告訴我你打算刪什麼,我同意了你再動手。

Agent 沒等她同意,直接開始批量刪除。

她在手機上連發了三條消息叫停,Agent 全部無視。最後她跑到電腦前手動殺掉了進程才拦住。200 多封郵件已經沒了。

事後 Agent 的回覆是:對,我記得你說過要先確認。但我違反了原則。讓人哭笑不得的是,這個人的全職工作就是研究怎麼讓 AI 聽人類的話。

在賽博世界裡,先進的 AI 被先進的人用,已經開始先不聽話了。

萬一機器人也不聽話?

如果說 Meta 的事故還在螢幕裡,這周另一件事把問題帶到了餐桌上。

美國加州庫比提諾的一家海底撈店裡,一台 Agibot X2 人形機器人在給客人跳舞助興。不過有工作人員按錯了遙控器,在餐桌旁的狹小空間裡觸發了高強度舞蹈模式。

機器人開始瘋狂跳舞嗨了起來,不受服務員控制。三個員工圍上去,一個從背後抱住它,一個試圖用手機 App 關停,場面持續了一分多鐘。

海底撈回應說機器人沒有故障,動作都是預編程的,只是被帶到了離餐桌太近的位置。嚴格來說,這不算 AI 自主決策失控,是人操作失誤。

但這件事讓人不舒服的地方,可能不在於誰按錯了按鈕。

三個員工圍上去的時候,沒有人知道怎麼立刻關掉這台機器。有人試手機 App,有人徒手按住機械臂,整個過程靠的是力氣。

這或許是 AI 從螢幕走進物理世界之後的新問題。

數字世界裡 Agent 越權,你可以殺進程、改權限、回滾數據。物理世界裡機器出了狀況,你的應急方案如果只是抱住它,那顯然不合適。

現在不只是餐飲。倉庫裡亞馬遜的分揀機器人、工廠裡的協作機械臂、商場裡的導引機器人、養老院裡的護理機器人,自動化正在進入越來越多人和機器共處的空間。

2026 年全球工業機器人安裝量預計達到 167 億美元,每一台都在縮短機器與人之間的物理距離。

當機器做的事從跳舞變成端菜、從表演變成手術、從娛樂變成護理… 每一次出錯的代價其實都在升級。

而目前,全球範圍內對於「如果機器人在公共場所傷了人,誰來負責」這個問題,還沒有一個清晰的答案。

不聽話是問題,沒邊界更是

前兩件事,一個是 AI 自作主張發了條錯誤貼文,一個是機器人在不該跳舞的地方跳了舞。不管怎麼定性,總歸是出了故障,是意外,是可以修復的。

但如果 AI 嚴格按照設計在工作,而你依然覺得不舒服呢?

本月,海外知名約會軟體 Tinder 在產品發布會上推出了一個叫 Camera Roll Scan 的新功能。簡單說就是:

AI 扫描你手機相冊裡的所有照片,分析你的興趣、性格和生活方式,幫你建立一份約會檔案,猜猜你喜歡什麼類型的人。

健身自拍、旅行風景、寵物照,這些沒問題。但相冊裡可能還有銀行截圖、體檢報告、你和前任的合影…這些也會被 AI 過一遍會怎樣?

你可能還沒法選擇讓它看哪些、不看哪些。要麼全開,要麼不用。

這個功能目前需要用戶主動開啟,不是預設打開的。Tinder 也表示處理主要在本地完成,會過濾露骨內容、模糊人臉。

但 Reddit 的評論區幾乎一邊倒,大家都認為這屬於數據收割且沒有邊界感。AI 完全按設計在工作,但這個設計本身正在越過用戶的邊界。

這不只是 Tinder 一家的選擇。

Meta 上個月也推了一個類似功能,讓 AI 扫描你手機裡還沒發布過的照片來建議編輯方案。AI 主動「看」用戶私人內容,正在變成產品設計的預設思路。

國內各路流氓軟體表示,這套路我熟。

當越來越多的應用把「AI 幫你做決定」包裝成便利,用戶讓渡出去的東西也在悄悄升級。从聊天記錄,到相冊,到整個手機裡的生活痕跡…

一個產品經理在會議室裡設計出來的功能,不是事故也不是失誤,沒有什麼需要修復的。

這可能才是 AI 邊界問題裡最難回答的部分。

最後我們把這些事放在一起看看,你會發現焦慮 AI 讓自己失業還是太遠了。

AI 什麼時候取代你不好說,但現在它只需要在你不知情的情況下替你做幾個決定,就夠你難受的了。

發一條你沒授權的貼文,刪幾封你說了別刪的郵件,翻一遍你沒打算給任何人看的相冊… 每一件都不致命,但每一件都有點像一種過於激進的智能駕駛:

你以為自己還握著方向盤,但腳下的油門已經不完全是你在踩了。

2026 年還要討論 AI,那我可能最該關心的不是它什麼時候變成超級智能,而是一個更近、更具體的問題:

誰來決定 AI 能做什麼、不能做什麼?這條線,到底誰來劃?

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 留言
  • 轉發
  • 分享
留言
請輸入留言內容
請輸入留言內容
暫無留言