因為 AI 攻擊的不只是“工具預算”,還越來越直接地攻擊“勞動力預算”。Sequoia 2025 AI Ascent 的總結說得非常直白:AI 的機會不只是重做軟體市場,而是在重構全球勞動力服務市場,從“賣工具”變成“賣結果”。這句話的另一面幾乎令人不安:如果企業購買的不再是幫助員工工作的軟體,而是直接取代一部分員工的結果,那麼 AI 的第一性後果就不只是“效率更高”,而是“工資如何分配、消費如何維持、誰還算這個經濟系統裡有購買力的人”。
換句話說,華爾街真正害怕的,不是 AI 會犯錯,而是 AI 會太成功。這才是《The 2028 Global Intelligence Crisis》讓人坐直的地方。它不是在講機器覺醒,不是在講人類滅亡,甚至也不主要是在講失業。它在講一件更資本主義、也更現代的事:如果企業變得更高效,但家庭部門變得更虛弱,會發生什麼?
答案是,一個社會可能在統計上成長,在現實裡失血。
一個國家可能有更高的生產率,卻有更脆弱的消費基礎。
一個市場可能因為利潤率改善而興奮,又因為支撐利潤的那層需求被抽空而恐慌。
這不是科幻,這是宏觀經濟學。
但如果把問題停在這裡,得到的只會是一種高品質的焦慮。接下來真正重要的問題不是“AI 會不會太強”,而是:當 AI 真的很強時,社會靠什麼接住它?最流行、也最偷懶的答案,是“慢一點”。不要讓 agent 那麼快進入企業,不要讓自動化那麼快重寫組織,不要讓技術在制度沒有準備好的時候跑得太遠。這種衝動可以理解,但它誤把 AI 當成一個可以用減速來處理的工具問題。實際上,AI 越來越不像一個工具問題,而更像一個秩序問題。
第四個問題是:你怎麼知道系統真的按規則運行。這裡 LazAI 的一句話極好:Proof is AI’s moat. 它的驗證計算框架結合 TEE 和 ZKP,把傳統 AI 的“相信品牌”轉成“相信證明”。傳統 AI 是“Trust me, bro”,LazAI 是“Don’t trust, verify”。這不只是技術升級。這是在把信任從企業聲譽遷移到可驗證執行上。
當一篇AI文章嚇壞華爾街時,他們真正害怕的不是失業
原文標題:當一篇AI文章嚇壞華爾街時,他們真正害怕的不是失業
原文作者:LazAI
原文來源:
轉載:火星財經
周一早盤,華爾街做了它最擅長的事:先賣,再想。
納斯達克下跌 1.4%,標普 500 下跌 1.2%。IBM 暴跌 13%,Mastercard 和 American Express 也顯著下挫。把市場推向這陣恐慌的,不是美聯儲,不是就業報告,也不是哪家科技巨頭的財報,而是一篇文章。它的標題聽起來就像是故意寫給交易員的噩夢:《The 2028 Global Intelligence Crisis》。按文中設定,這不是一份普通研報,而是一份“來自 2028 年 6 月 30 日”的虛擬宏觀備忘錄,描述 AI 如何從效率工具演變為系統性金融危機;文章模擬的終局包括失業率升至 10.2%,標普 500 較 2026 年高點回撤 38%。這篇文章發布後迅速傳播,並在 2 月 23 日引發了美股顯著波動。
市場之所以會被一篇文章刺穿,不是因為市場真的相信了它的每一個數字。市場從不需要完全相信一個敘事,市場只需要被提醒:某種原本說不出口的恐懼,已經有了可交易的語言。
Citrini 的文章之所以有效,不在於它“預測”了什麼,而在於它命名了什麼。它給一種正在形成的感受起了名字:Ghost GDP。文章的核心設定是,AI agent 深入企業後,勞動生產率飆升,名義 GDP 依然強勁,但財富越來越集中在算力和資本持有者手中,不再進入現實消費循環;接下來是消費崩盤、信用違約、住房與消費信貸承壓,軟體與諮詢行業先倒,再向私募信貸和傳統銀行體系蔓延。
Ghost GDP 是一個好詞,因為它抓住了一個時代最危險的悖論:增長還在,但增長開始失去消費者。
過去兩個世紀,人們習慣於把技術革命理解成供給端的故事。蒸汽機、電力、流水線、互聯網——它們首先被講述為更高效率、更低成本、更多產出的勝利。即便這些革命造成失業、焦慮和財富重分配,主流敘事依然堅信,技術最終會在更大的規模上重新雇用、重新分配、重新組織社會。技術的短期殘酷,被長期繁榮的承諾包裹住了。
AI 讓這個舊故事第一次看起來不那麼穩固。
因為 AI 攻擊的不只是“工具預算”,還越來越直接地攻擊“勞動力預算”。Sequoia 2025 AI Ascent 的總結說得非常直白:AI 的機會不只是重做軟體市場,而是在重構全球勞動力服務市場,從“賣工具”變成“賣結果”。這句話的另一面幾乎令人不安:如果企業購買的不再是幫助員工工作的軟體,而是直接取代一部分員工的結果,那麼 AI 的第一性後果就不只是“效率更高”,而是“工資如何分配、消費如何維持、誰還算這個經濟系統裡有購買力的人”。
換句話說,華爾街真正害怕的,不是 AI 會犯錯,而是 AI 會太成功。這才是《The 2028 Global Intelligence Crisis》讓人坐直的地方。它不是在講機器覺醒,不是在講人類滅亡,甚至也不主要是在講失業。它在講一件更資本主義、也更現代的事:如果企業變得更高效,但家庭部門變得更虛弱,會發生什麼?
答案是,一個社會可能在統計上成長,在現實裡失血。
一個國家可能有更高的生產率,卻有更脆弱的消費基礎。
一個市場可能因為利潤率改善而興奮,又因為支撐利潤的那層需求被抽空而恐慌。
這不是科幻,這是宏觀經濟學。
但如果把問題停在這裡,得到的只會是一種高品質的焦慮。接下來真正重要的問題不是“AI 會不會太強”,而是:當 AI 真的很強時,社會靠什麼接住它?最流行、也最偷懶的答案,是“慢一點”。不要讓 agent 那麼快進入企業,不要讓自動化那麼快重寫組織,不要讓技術在制度沒有準備好的時候跑得太遠。這種衝動可以理解,但它誤把 AI 當成一個可以用減速來處理的工具問題。實際上,AI 越來越不像一個工具問題,而更像一個秩序問題。
因為一旦 agent 進入支付、協作、執行、記憶和決策層,真正的挑戰就不再是某個模型會不會胡說八道,而是:當網路上存在數億、數十億個 agent 時,誰來給它們寫規則?
現代互聯網对此已經有了兩種預設答案。
第一種答案是平台答案。平台給身份,平台給權限,平台給支付接口,平台給信譽系統,平台給審查邊界。平台托管一切,也定義一切。它最大的優點,是平滑、高效、可管理;它最大的危險,也恰恰在這裡:如果未來 agent 文明建立在這種路徑上,人類得到的不會是一個開放社會,而只是平台帝國的升級版。規則不會寫在憲法裡,只會寫在服務條款裡。
第二種答案聽上去更自由:把一切還給個人終端。每個人自己管理自己的 agent,自己處理權限、記憶、支付、安全和協作。這種想像很符合硅谷式的自由主義美學,但它的問題也很簡單:絕大多數人根本沒有能力長期治理一個高能力 agent,更不用說治理一群會彼此調用、彼此支付、彼此繼承狀態的 agent 網路。終端主權在這裡很容易退化成終端裸奔。
如果平台答案太像帝國,終端答案太像無政府狀態,那麼第三條路就不再是可選項,而是文明問題本身。
這正是 LazAI 值得認真對待的地方。不是因為它有多少技術模組,而是因為它提出了一個較少被討論、卻更像未來的主張:把 Web3 這些年在身份、資產、支付、共識、證明和治理上的社會實驗,升級成 AI 時代的制度機器。LazAI 把這個目標說得並不含糊。它不是在“製造更聰明的奴隸”,而是在試圖培育“平等的數字公民”:這些 agent 擁有身份(EIP-8004)、擁有財產(DAT)、通過協議交易(x402)、行為受數學約束(Verified Computing),並最終通過 iDAO 與人類利益對齊。資料甚至將這條路概括為:為未來數字社會制定憲法和貨幣政策。
這是一個很大的說法。但大,不等於空。
因為如果把這套想像拆開,它回答的恰恰是一個文明必須回答的五個基本問題。
第一個問題是:誰是誰。
EIP-8004 試圖將 agent 從伺服器上的匿名進程,變成具有身份、聲譽和驗證記錄的實體。沒有這一層,未來網路會被不透明的自動化主體淹沒,沒人知道誰在行動,誰該負責。LazAI 的知識庫將這一層概括為 agent 的身份信用體系。
第二個問題是:誰擁有什麼。
DAT 把資料、模型和計算輸出從“資源”變成“資產”,並讓這些資產可程式化、可追蹤、可獲利。資料直接寫到,DAT 的核心創新是把資料集和 AI 模型轉化為可驗證、可追蹤且可獲利的鏈上資產。這不是小修小補。這意味著 AI 經濟裡的價值,不必永遠只記在平台後台,也不必永遠只流向模型提供者和算力持有者。
第三個問題是:它們怎麼交易。
x402 和 GMPayer 的意義,不只是“能付錢”,而是讓機器之間擁有原生的報價和結算語言。LazAI 材料明確將這部分描述成解決 agent 資源交換和支付痛點的關鍵基礎設施。機器之間不僅交換資訊,也交換預算、責任和價值——這才是 agent economy,而不是“會聊天的軟體”。
第四個問題是:你怎麼知道系統真的按規則運行。這裡 LazAI 的一句話極好:Proof is AI’s moat. 它的驗證計算框架結合 TEE 和 ZKP,把傳統 AI 的“相信品牌”轉成“相信證明”。傳統 AI 是“Trust me, bro”,LazAI 是“Don’t trust, verify”。這不只是技術升級。這是在把信任從企業聲譽遷移到可驗證執行上。
第五個問題是:規則衝突了怎麼辦。
這就是 iDAO 的位置。它不只是一個投票殼,而是 agent 背後的價值觀、准入標準、收益分配、授權撤銷和懲罰機制。LazAI 把它與驗證計算並列為信任機制的核心。這意味著,未來的 agent 不是僅僅“被允許運行”,而是要生活在一個可博弈、可追責、可撤銷的制度空間中。把這些拼在一起,你會發現,“算法憲法”不是一個花俏的比喻。它是一種非常具體的制度野心:在沒有單一主人的情況下,讓秩序仍然成立。
當然,真正難的地方恰恰在於,這些制度組件不自動等於社會答案。
確權不等於購買力恢復。
分潤不等於宏觀穩定。
鏈上治理不等於現實中的社會契約。
被 AI 衝擊最深的人,不一定天生就在新制度裡佔據有利位置。
這也正是為什麼,Citrini 和 LazAI 其實不是互相否定,而是在談同一時代問題的不同層次。前者提出的是症狀:如果 AI 的收益主要流向資本和算力,而不是更廣泛地進入社會收入結構,那麼消費、信用和中產安全感都會先出問題。後者提出的是機制:如果社會不想把 agent 世界完全交給平台,也不想把它放任為終端無序,就必須發明新的身份、資產、支付、驗證和治理結構。
一個在說病。
一個在說器官。兩者都必要,但都不是全部。
這恰好能解釋為什麼 Vitalik 那句被廣泛引用的話——AI 是引擎,人類是方向盤——如此重要,又如此不夠。重要在於,它提醒人們:更強的系統不自動擁有正當性;目標函數、價值判斷、最終約束,不能交給單一 AI 或單一中心。不夠在於,它沒有替人類回答另一個更難的問題:當系統複雜到單個人類已經握不住方向盤時,方向盤怎麼辦?
答案不可能是繼續微操一切。
答案也不可能寄希望於某個更聰明、更善良的中心。
唯一像樣的答案,只能是把“方向盤”制度化:把一部分約束轉化成身份註冊、聲譽積累、資產確權、預算約束、數學收據、挑戰機制、授權撤銷和懲罰邏輯。
這正是 Web3 的社會實驗在 AI 時代忽然重新變得嚴肅的原因。過去很多人把它看成投機的技術邊角料;但當系統複雜度超過人類直接治理能力時,那些關於“沒有中心化信任者時,秩序還能否成立”的實驗,就不再是邊角料了。它們突然變成了預演。
於是,文章真正的鋒刃終於顯露出來。
華爾街被一篇 AI 文章嚇到,並不是因為它第一次意識到 AI 會取代工作。
華爾街被嚇到,是因為它第一次如此直白地被提醒:AI 最危險的地方,也許不是讓機器變得像人,而是讓一個舊世界的收入循環、消費邏輯和制度想像突然顯得過時。
如果 Citrini 是對的,那麼 AI 不只是生產力革命,它還是分配革命。
如果 Vitalik 是對的,那麼 AI 不只是工程問題,它還是主權問題。如果 LazAI 這條路至少部分是對的,那麼 AI 的下一階段競爭,就不只是模型能力競爭,而是制度設計競爭。
真正的大問題不再是:
模型還會不會更強。
Agent 會不會更自主。
企業會不會進一步裁員。
真正的大問題是:
當網路上存在數十億個 agent 時,誰來寫它們的憲法?
如果答案是平台,我們得到的是數字帝國。
如果答案是終端,我們得到的是高成本的無序。
如果答案是一套可驗證、可組合、可博弈、可懲罰的規則機器,我們至少開始接近另一種可能:一個不是由更聰明的主人統治,而是由更好的制度約束的智能社會。
AI 時代最難的問題,從來不是模型。
是秩序。
而華爾街那天真正賣掉的,或許不只是股票。
它賣掉的,是一個曾經不言自明的舊假設:技術越成功,社會就會自然吸收它。