盤點六大 AI 可驗證性解決方案

中級4/17/2025, 2:07:45 AM
本文探討了 2025 年 AI 可驗證性領域的前沿解決方案,詳細分析了 EigenLayer、Hyperbolic、Mira、Atoma、Fortytwo、Lagrange 等六個主要項目⁠⁠。這些項目採用不同技術路線,包括採樣證明(PoSP)、可信執行環境(TEE)、零知識證明(ZKP)等,致力於解決AI輸出的可信度問題⁠。每種方案各有優勢,其應用取決於具體場景需求⁠⁠,共同推動去中心化AI基礎設施的發展。

轉發原文標題《人工智能和可驗證性》

隨着人工智能系統越來越多地與區塊鏈生態系統融合,確保AI輸出結果的可驗證性已成爲建立信任、透明度和問責機制的關鍵基石。這一點在去中心化金融(DeFi)和“人格證明”(Proof-of-Personhood)等應用中尤爲重要,因爲其準確性與可靠性會直接影響財務結果、治理決策以及用戶身份的確認。

去中心化系統中可驗證人工智能的案例

人工智能可觀測性

確保決策過程透明且易於理解。利益相關者可以深入了解如何得出結論——當決策影響鏈上交易或大規模治理時至關重要。

源頭可追索性

追蹤用於生成AI預測的數據、參數和模型架構。通過建立數據來源的可追溯性,用戶可以明確訓練數據的來源及所使用的模型,從而增強信任,降低誤導信息的風險。

輸出可驗證性

確認最終的人工智能輸出準確且未改變。在去中心化的背景下,這通常涉及證明機制(例如,零知識證明、抽樣共識),以確保計算或推理不會被鏈下篡改。

鏈上人工智能可驗證性的挑戰

盡管區塊鏈在提供不可篡改的帳本和分布式信任方面表現優越,但進行鏈上的AI計算往往成本高昂。例如,進行一次1000×1000整數的矩陣乘法可能消耗數十億Gas——遠遠超出以太坊當前的區塊Gas上限(Zheng等人,2021)。因此,大多數AI項目通常採用鏈下計算,並結合鏈上驗證的方式進行處理。

然而, 這種鏈下方法也帶來了新的挑戰:

潛在的欺詐:如果沒有可靠的驗證,惡意行爲者可能會提交不正確或被操縱的數據。

中心化的弱點:依賴鏈下預言機或私人服務器可能會破壞去中心化的精神,導致審查或單點故障。

因此,當前的一些新興解決方案正在嘗試在保持高性能的同時,結合密碼學或基於抽樣的驗證機制,以在效率與去中心化之間取得平衡。

EigenLayer

EigenLayer 是一種再質押協議,它允許以太坊驗證者將其已質押的ETH進行“再質押”,以保護其他去中心化服務,這些服務被稱爲“主動驗證服務”(Actively Validated Services,簡稱 AVS)。與其爲每個專門任務(如 AI 驗證、跨鏈操作)建立一套新的驗證者網絡,不如直接復用以太坊本身強大而去中心化的驗證者網絡,EigenLayer 正是爲此而設計。

EigenLayer 通過允許新的主動驗證服務(AVS)利用以太坊現有的驗證器集來增強安全性。這個驗證器集已經很大、資本充足、地理分布廣泛,可以提供強大的加密經濟保證,而無需從頭開始啓動新網絡。

通過支持再質押機制,EigenLayer 大幅降低了項目的運維成本。項目方無需再建立並維護自己的驗證者生態系統,從而降低了基礎設施支出,也降低了在鏈上部署新型去中心化服務的門檻。

此外,該系統還具有高度靈活性。 AVS 可以定制自己的共識和驗證邏輯,同時仍然繼承以太坊的基礎層安全性,使 EigenLayer 成爲模塊化、安全和可擴展的去中心化應用程式的理想基礎。

Hyperbolic 的採樣證明(PoSP)

Hyperbolic Labs 推出了“採樣證明”(Proof of Sampling,PoSP)機制,這是一種相較於傳統 zkML 或樂觀欺詐證明更高效、可擴展的 AI 驗證新方法。這種基於採樣的驗證協議,確保用戶可以信任其模型在 Hyperbolic 去中心化 GPU 網絡上的訓練與運行結果。PoSP 正在成爲 AI 驗證的新黃金標準。

PoSP 由 Hyperbolic 團隊與加州大學伯克利分校和哥倫比亞大學的研究人員合作開發,利用博弈論來保護去中心化系統。它驗證結果的戰略樣本,並對不誠實的節點實施仲裁流程,以激勵整個網絡 100% 的誠實行爲。

自發證明的證明 (PoSP) 具有幾個關鍵優勢:它通過增加不到 1% 的計算開銷來實現高效驗證,允許節點保持接近本機的運行速度。其強大的安全性可確保參與者保持誠實,因爲隨機檢查使欺詐風險太大而不值得。通過博弈論激勵,PoSP 創建了一個“純策略納什均衡”,其中誠實行爲始終是理性選擇。最後,PoSP 對於人工智能服務具有高度可擴展性,能夠支持大規模去中心化人工智能工作負載,同時確保高性能計算和推理過程保持可驗證和可信。

隨機審核:一組輪換的驗證器(通過 EigenLayer)定期採樣並檢查 AI 計算。這種持續的驗證可以防止系統性作弊。

納什均衡激勵:對於驗證者來說,惡意行爲在經濟上是不合理的——不誠實或不一致的輸出會導致大幅處罰。

高吞吐量:PoSP 較低的性能開銷使其非常適合需要快速、頻繁的 AI 推理的用例。

與其他去中心化人工智能解決方案不同,當您在 Hyperbolic 去中心化網絡上運行推理時,您可以確信自己收到了有效結果。

通過將 PoSP 集成到 EigenLayer 中, 去中心化人工智能服務 可以實現一個安全的、信任最小化的框架,可以在不犧牲去中心化或成本效率的情況下處理越來越多的推理請求。

隨機驗證: 隨機選擇驗證器來驗證輸出,確保結果公正。

可擴展的 AVS 支持:PoSP 減少了計算需求,使 EigenLayer 能夠有效地保護大規模服務。

欺詐威懾: 嚴厲的懲罰使不誠實行爲無利可圖,而誠實的行爲仍然是最佳策略。

“EigenLayer 協議與我們的採樣證明協議相結合,從根本上改變了我們保護去中心化服務的方式。我們現在以極低的成本提供可擴展、可靠且防欺詐的基礎設施。” - Hyperbolic 首席執行官Jasper Zhang 說。


在此處閱讀有關 PoSP 的完整論文

Mira

Mira Network 旨在解決人工智能領域的一個基本挑戰,即大型語言模型 (LLM) 生成錯誤信息的趨勢。 Mira 旨在減少幻覺並在無需人工監督的情況下最大限度地提高輸出準確性,它利用獨立節點的去中心化網絡來以不可信的方式並行驗證人工智能輸出。

Mira的架構分爲三個步驟

二值化(Binarization)

將輸出分解爲更簡單的“聲明”的過程。

分布式驗證

上述聲明由運行專門模型來驗證聲明的驗證者節點網絡進行驗證。驗證以多項選擇題的形式進行。用於驗證的聲明在驗證者之間隨機分片,這使得共謀變得困難。

驗證證明

採用結合了工作量證明(PoW)和權益證明(PoS)的混合共識機制。每個驗證者都需要抵押才能參與驗證。這種方法確保驗證者實際上是在執行推理,而不僅僅是證明。如果發現驗證者的輸出不斷偏離共識,那麼驗證者的質押將被削減。

當整個網絡就某一AI輸出達成共識後,系統將生成一份加密證書並寫入區塊鏈,形成一份不可篡改的“已驗證事實”記錄。


來源: Mira 網絡白皮書

隱私是 Mira 設計的一個關鍵要素。由於申明(claims)是以隨機方式分片的,單個節點運營者無法重建原始的完整輸出。此外,在達成共識之前,來自獨立驗證者的驗證響應會被保密,從而防止信息泄露。

Mira 正在尋求驗證日益復雜的內容,其中包括代碼、結構化數據和多媒體內容。未來,Mira還將在檢測到無效內容時重構無效內容,實現AI輸出的準確性和速度。最終,Mira Network 將能夠積累經濟上安全的事實,創建用於事實檢查的數據庫。

隨着網絡使用量的增長 - 產生更高的交易費用 - 更好的驗證獎勵 - 吸引更多的節點運營商 - 提高答案驗證的準確性、成本效率和響應時延

Atoma

Atoma 是一個去中心化、私有且可驗證的人工智能執行網絡,運行在 Sui 主網上。核心架構由三個要素組成:(a) 計算層; (b) 驗證層; (c)隱私層。

計算層

處理推理請求的執行節點的全球網絡。通過與各種數據中心和邊緣設備(例如個人數字設備)合作,可以獲得大量節點。

在 Atoma 網絡中,模型權重本地化存儲在節點上,使推理請求到達時能夠更快速地執行。此外,請求會被智能地路由至最適合的節點,根據任務需求匹配性能和成本最優的資源。

Atoma 通過一系列技術手段優化推理效率,其中包括 FlashAttention 和 Paged Attention,兩者都能有效降低計算開銷。

驗證層

Atoma 通過採樣共識機制確保計算結果的完整性。系統會隨機挑選部分節點進行推理,並生成其輸出的加密哈希值。若所有選中節點生成的哈希值一致,則該推理結果被視爲已驗證。若哈希值存在差異,系統會識別出不誠實的節點,並對其進行質押削減(slashing)懲罰。

惡意攻擊者能夠控制整個網絡一半或更多的 GPU 能力來欺騙系統的可能性非常低,並且隨着節點網絡的擴展變得更加困難。選擇採樣的節點數量是靈活的,對於更高權益的任務,可以選擇更大的節點集。

隱私層

Atoma 重視用戶數據的安全與隱私,其計算過程在“可信執行環境”(Trusted Execution Environment,TEE)中進行。用戶輸入的數據是加密的,僅在 TEE 中解密,確保區塊鏈上的其他任何方都無法讀取用戶數據。

盡管上述是一個安全的解決方案,但值得注意的是,它需要在較高的計算開銷方面進行權衡,這可能會導致用戶支付更高的費用。

Aizel 網絡

與上述的 Atoma Network 類似,Aizel Network 同樣採用了基於可信執行環境(Trusted Execution Environment, TEE)的架構。但其主要區別在於——Aizel 在工作流程中整合了多方安全計算(MPC, Multi-Party Computation)機制。

四十二

Fortytwo 倡導一種基於“小型專用模型(SLMs)”的“羣體推理(Swarm Inference)”架構。與傳統依賴於單一龐大模型的方式不同,Fortytwo 網絡協調多個由貢獻者運行的模型,每個模型針對特定任務或領域進行微調。這些模型並行工作,相互驗證、優化和交叉檢查輸出結果,從而實現更高準確度與可信度的推理。

這種去中心化架構有效解決了大型模型常見的諸多問題,如訓練瓶頸、高昂的硬件需求以及單點故障等。通過將智能能力分布在衆多小型模型和貢獻者之間,Fortytwo 實現了強大的可擴展性與容錯能力。

1. 小型專用模型(SLM)

意圖優先初始化

在任何任務開始之前,貢獻者指定 目標, 預算, 和 限制條件。這種方法使每個 SLM 與總體任務保持一致——無論是總結文本、分析代碼還是任何其他專門的推理。

貢獻者定義的專業化

各個節點運營商將自己的微調模型引入網絡。他們保留對權重、偏差和專有數據的完全控制——確保 隱私 對於每個模型所有者。這些專門的模型可以專注於情感分析、法律文本解析,甚至特定領域的代碼生成等領域。

權重和偏差的隱私

Fortytwo 的一個重要方面是貢獻者 不要 必須共享原始模型內部結構。僅推理結果與網絡共享。這種設計保留了每個模型所有者的知識產權,並有助於降低與暴露敏感數據相關的風險。

2. 羣體推理與節點間互評

多 SLM 協同

任務被分配給 7-8 個(或更多)專門的 SLM,每個都提供獨特的領域視角。通過將較大的任務劃分爲較小的子問題,網絡可以更有效地利用每個模型的優勢。

扁平化專家混合模型 (MoE)

與傳統的多層嵌套專家結構不同,Fortytwo 採用“扁平”MoE 架構——所有專家模型獨立處理數據,避免了復雜的層級調度機制。這種設計既高效,又讓每個模型專注於其負責的子任務。

集體錯誤檢測

節點間互評機制是保證推理準確性的關鍵。若多個模型對結果存在分歧,系統會自動標記這些差異,進行進一步分析和驗證。該交叉驗證流程可在早期發現錯誤,保障輸出質量。

3. 低延遲和分布式計算

消費級硬件

Fortytwo 針對 Apple Silicon 與 RTX GPU 等消費級硬件進行優化,顯著降低節點運營門檻,拓寬參與者範圍。這種設計推動 AI 的民主化,使更多普通用戶也能參與模型運行,而不僅限於大型數據中心。

部署集羣

許多節點運營者會選擇 AWS 等雲平台或自建集羣部署,以降低延遲。在對響應時間敏感的應用中,這類高協同集羣尤其關鍵,可有效提升用戶體驗。

4. 節點運營者社區

參與度不斷提高

數千名參與者表示有興趣運行推理節點、創建多樣化的分布式網絡。這種擴展帶來了更多的在線計算資源,進一步提高了吞吐量和彈性。

類似維基百科的模型貢獻

類似維基百科編輯協作模式,每位節點運營者可對其專長模型進行增強或微調,並分享其優化技術。這種集體式維護與改進機制不斷推動網絡智能演進,助力持續創新。

Lagrange

Lagrange 站在將零知識技術(Zero-Knowledge, ZK)引入 AI 可驗證性最前沿的位置。其口號——“AI 的未來屬於零知識,人類的未來屬於 Lagrange”——充分體現了其核心理念:隨着 AI 向超級智能演進,我們必須確保模型運行過程中的透明性與可信性。

DeepProve:高性能 zkML 框架

  • 正確模型的證明:DeepProve 以加密方式確認給定的推理使用了正確的 AI 模型,不留任何篡改或歪曲的空間。
  • 正確輸出的證明:它還保證輸出與模型真正產生的結果一致,防止惡意行爲者注入虛假結果。
  • 性能進步: 相較於現有 zkML 方案,DeepProve 在生成證明方面快 158 倍,驗證速度快 671 倍,爲大規模部署奠定基礎。

通過消除“黑箱式”AI交互,Lagrange 使用戶無需“盲目信任”AI。在強調最小化信任的去中心化環境中,關於模型完整性與結果準確性的加密確定性成爲不可或缺的保障。

而且, 推 Inference Labs 是 Lagrange 的應用研發機構,負責將前沿 ZK 研究成果轉化爲可落地的產品方案。雖然 Lagrange 專注於核心加密和電路設計,但 Inference Labs 確保這些突破已做好生產準備。

現實世界的集成

將 zkML 嵌入到現有的機器學習管道中,重點關注 DeFi、遊戲、醫療保健和供應鏈溯源等領域。

與行業領先者合作,在高參數量、大模型、嚴格延遲等真實約束下進行壓力測試。

EZKL

EZKL 是一個開源系統,專爲使用零知識證明(ZKPs)實現 AI 與分析的可驗證性而設計。它使開發者能夠在不暴露敏感數據或專有模型細節的前提下,證明 AI 模型已被正確執行。受到 Apple Face ID 等系統的啓發,EZKL 將“不可篡改的模型安全性”拓展到任何模型、任何設備——無需依賴 TEE 等專用硬件。

零知識證明基礎設施

EZKL 自動化了整個 ZKP 生命周期——從模型編譯到證明生成和驗證。用戶提供 ONNX 格式的 AI 模型,EZKL 使用 Halo2 證明系統的優化版本將其編譯成 ZK 友好電路。然後,系統生成正確模型執行的加密證明,可以在任何設備上進行驗證。

這種加密過程可以實現高風險人工智能應用程序的去中心化信任,例如金融決策、生物識別身份驗證和實時推理驗證。

協作型 SNARK(Cosnarks)

EZKL 最近推出了協作 SNARK(cosnarks),允許模型所有者和數據所有者等兩方共同生成 ZK 證明,而無需任何一方泄露其機密資產。與委托 MPC 證明系統不同,cosnarks 通過將計算限制爲僅涉及相關方來消除額外的信任假設。

這一進步使得私人信用評分、保密交易策略和零知識身份驗證等用例成爲可能。該實現利用 Renegade 的 2PC 優化 MPC 庫,並直接集成到 EZKL 的雲編排層 Lilith。

模型支持和靈活性

EZKL 支持廣泛的 AI/ML 架構,包括 CNN、RNN、GPT 式轉換器、決策樹和穩定擴散模型。任何兼容ONNX標準的模型都可以轉換成ZK電路。

通過將模型邏輯抽象爲數學電路,EZKL 能夠跨金融、醫療保健和身份等行業進行隱私保護推理。基於樹的邏輯、注意力機制和大規模矩陣運算都在 Halo2 支持的框架內得到支持。

開發者經驗

EZKL 優先考慮可訪問性和復雜性抽象。開發人員不需要事先具備密碼知識、電路設計經驗或高級 DevOps 技能。該系統提供 CLI、Python、JavaScript 和 Rust 的綁定,從而可以輕鬆地將 ZK 工作流程嵌入到現有的 ML 管道中。

自動約束生成、簡化的證明命令以及與編排工具的無縫集成使開發人員能夠專注於應用程序邏輯。

ORA 協議

ORA 是一個鏈無關(chain-agnostic)的預言機協議,專爲連接人工智能與區塊鏈而設計,使開發者能夠構建真正無需信任、完全去中心化的應用程序,其核心由可驗證的機器學習能力驅動。通過其創新性基礎設施,ORA 將 AI 推理、內容生成與復雜計算直接引入鏈上執行,不再依賴中心化計算平台或鏈下 API。

該協議允許任何開發人員構建應用程序,其中人工智能輸出(無論是語言模型響應、生成的圖像還是經過事實檢查的語句)可以嵌入到具有可審計性和正確性保證的智能合約中。

鏈上人工智能預言機(OAO)

Onchain AI Oracle(OAO)是 ORA 的旗艦產品。它使智能合約能夠請求、接收人工智能推理的結果並對其採取行動,這些結果在鏈下運行,但在鏈上進行驗證和結算。開發人員可以通過 ORA 的 opML 網絡調用 AI 推理作業。結果通過用戶合約中的回調函數返回,使鏈上應用程序成爲人工智能原生且完全自治的。

OAO 支持通過可驗證的基礎設施運行的多個大型模型,例如 LLaMA3、Stable Diffusion、OpenLM Chat/Score。開發人員可以將 OAO 集成到任何與 EVM 兼容的鏈上,而 Prompt 和 SimplePrompt 等預構建的智能合約可以在考慮 Gas 優化的情況下進行快速原型設計。

opML 和驗證工作流程

ORA 的樂觀機器學習 (opML) 系統爲其驗證層提供支持。當推理作業啓動時,結果會發布到鏈上,並帶有挑戰期。在此期間,opML 驗證器可以驗證結果,如果不正確,則提交欺詐證明。正確的結果取代有問題的結果。這確保了嵌入智能合約的人工智能輸出是可驗證的、抗審查的且經濟安全的。

這種樂觀的方法平衡了性能和去中心化。與 zkML 不同,zkML 可能需要大量的前期計算,opML 使得不誠實行爲的成功在經濟上變得不合理,尤其是隨着驗證器網絡的擴展。

開發者集成

開發人員通過文檔齊全的模塊化界面與 OAO 進行交互。要在智能合約中集成 AI 功能,開發者需繼承 AIOracleCallbackReceiver 並實現 aiOracleCallback() 函數以接收推理結果。之後可通過模型 ID、輸入數據及回調地址調用 oracle 啓動推理任務。

目前 Arbitrum 上部署了四個模型,集成就像使用 ORA 的 Prompt 模板一樣簡單。該基礎設施還通過 Lilith 支持的計算編排支持更高級的用例,從而實現更快的推理和高吞吐量工作負載。

初始模型產品(IMO)

ORA 創建了初始模型產品 (IMO) 框架,以分散 AI 模型所有權、收入和治理。 IMO 通過雙代幣結構對人工智能模型進行代幣化:

  • ERC-7007:將可驗證的人工智能生成的輸出(例如圖像、預測)直接錨定在鏈上。
  • ERC-7641:將模型使用產生的收入分配給代幣持有者,創建符合激勵、社區治理的人工智能系統。

通過實現基於代幣的治理和貨幣化,IMO 爲開源開發提供資金,同時確保人工智能基礎設施保持抗審查性、全球可訪問性和集體所有。

結論

隨着人工智能垂直領域的不斷發展,對可驗證的人工智能輸出的需求變得越來越重要。從上面可以看出,有多種方法可以確保去中心化人工智能解決方案的去信任性,包括可信執行環境(TEE)、採樣證明(PoSP)、零知識機器學習(ZKML)和樂觀機器學習(OPML)。

這些方法在各個方面有所不同,即成本、所需時間和安全保證級別。上面提到的所有解決方案很可能都會以某種方式使用,具體取決於各別實際用例。

聲明:

  1. 本文轉載自 [Hyperbolic - e/acc],原文標題《人工智能和可驗證性》,所有版權歸原作者所有[Hyperbolic - e/acc]。若對本次轉載有異議,請聯系 Gate Learn 團隊,他們會及時處理。
  2. 免責聲明:本文所表達的觀點和意見僅代表作者個人觀點,不構成任何投資建議。
  3. Gate Learn 團隊將文章翻譯成其他語言。除非另有說明,否則禁止復制、分發或抄襲翻譯文章。

盤點六大 AI 可驗證性解決方案

中級4/17/2025, 2:07:45 AM
本文探討了 2025 年 AI 可驗證性領域的前沿解決方案,詳細分析了 EigenLayer、Hyperbolic、Mira、Atoma、Fortytwo、Lagrange 等六個主要項目⁠⁠。這些項目採用不同技術路線,包括採樣證明(PoSP)、可信執行環境(TEE)、零知識證明(ZKP)等,致力於解決AI輸出的可信度問題⁠。每種方案各有優勢,其應用取決於具體場景需求⁠⁠,共同推動去中心化AI基礎設施的發展。

轉發原文標題《人工智能和可驗證性》

隨着人工智能系統越來越多地與區塊鏈生態系統融合,確保AI輸出結果的可驗證性已成爲建立信任、透明度和問責機制的關鍵基石。這一點在去中心化金融(DeFi)和“人格證明”(Proof-of-Personhood)等應用中尤爲重要,因爲其準確性與可靠性會直接影響財務結果、治理決策以及用戶身份的確認。

去中心化系統中可驗證人工智能的案例

人工智能可觀測性

確保決策過程透明且易於理解。利益相關者可以深入了解如何得出結論——當決策影響鏈上交易或大規模治理時至關重要。

源頭可追索性

追蹤用於生成AI預測的數據、參數和模型架構。通過建立數據來源的可追溯性,用戶可以明確訓練數據的來源及所使用的模型,從而增強信任,降低誤導信息的風險。

輸出可驗證性

確認最終的人工智能輸出準確且未改變。在去中心化的背景下,這通常涉及證明機制(例如,零知識證明、抽樣共識),以確保計算或推理不會被鏈下篡改。

鏈上人工智能可驗證性的挑戰

盡管區塊鏈在提供不可篡改的帳本和分布式信任方面表現優越,但進行鏈上的AI計算往往成本高昂。例如,進行一次1000×1000整數的矩陣乘法可能消耗數十億Gas——遠遠超出以太坊當前的區塊Gas上限(Zheng等人,2021)。因此,大多數AI項目通常採用鏈下計算,並結合鏈上驗證的方式進行處理。

然而, 這種鏈下方法也帶來了新的挑戰:

潛在的欺詐:如果沒有可靠的驗證,惡意行爲者可能會提交不正確或被操縱的數據。

中心化的弱點:依賴鏈下預言機或私人服務器可能會破壞去中心化的精神,導致審查或單點故障。

因此,當前的一些新興解決方案正在嘗試在保持高性能的同時,結合密碼學或基於抽樣的驗證機制,以在效率與去中心化之間取得平衡。

EigenLayer

EigenLayer 是一種再質押協議,它允許以太坊驗證者將其已質押的ETH進行“再質押”,以保護其他去中心化服務,這些服務被稱爲“主動驗證服務”(Actively Validated Services,簡稱 AVS)。與其爲每個專門任務(如 AI 驗證、跨鏈操作)建立一套新的驗證者網絡,不如直接復用以太坊本身強大而去中心化的驗證者網絡,EigenLayer 正是爲此而設計。

EigenLayer 通過允許新的主動驗證服務(AVS)利用以太坊現有的驗證器集來增強安全性。這個驗證器集已經很大、資本充足、地理分布廣泛,可以提供強大的加密經濟保證,而無需從頭開始啓動新網絡。

通過支持再質押機制,EigenLayer 大幅降低了項目的運維成本。項目方無需再建立並維護自己的驗證者生態系統,從而降低了基礎設施支出,也降低了在鏈上部署新型去中心化服務的門檻。

此外,該系統還具有高度靈活性。 AVS 可以定制自己的共識和驗證邏輯,同時仍然繼承以太坊的基礎層安全性,使 EigenLayer 成爲模塊化、安全和可擴展的去中心化應用程式的理想基礎。

Hyperbolic 的採樣證明(PoSP)

Hyperbolic Labs 推出了“採樣證明”(Proof of Sampling,PoSP)機制,這是一種相較於傳統 zkML 或樂觀欺詐證明更高效、可擴展的 AI 驗證新方法。這種基於採樣的驗證協議,確保用戶可以信任其模型在 Hyperbolic 去中心化 GPU 網絡上的訓練與運行結果。PoSP 正在成爲 AI 驗證的新黃金標準。

PoSP 由 Hyperbolic 團隊與加州大學伯克利分校和哥倫比亞大學的研究人員合作開發,利用博弈論來保護去中心化系統。它驗證結果的戰略樣本,並對不誠實的節點實施仲裁流程,以激勵整個網絡 100% 的誠實行爲。

自發證明的證明 (PoSP) 具有幾個關鍵優勢:它通過增加不到 1% 的計算開銷來實現高效驗證,允許節點保持接近本機的運行速度。其強大的安全性可確保參與者保持誠實,因爲隨機檢查使欺詐風險太大而不值得。通過博弈論激勵,PoSP 創建了一個“純策略納什均衡”,其中誠實行爲始終是理性選擇。最後,PoSP 對於人工智能服務具有高度可擴展性,能夠支持大規模去中心化人工智能工作負載,同時確保高性能計算和推理過程保持可驗證和可信。

隨機審核:一組輪換的驗證器(通過 EigenLayer)定期採樣並檢查 AI 計算。這種持續的驗證可以防止系統性作弊。

納什均衡激勵:對於驗證者來說,惡意行爲在經濟上是不合理的——不誠實或不一致的輸出會導致大幅處罰。

高吞吐量:PoSP 較低的性能開銷使其非常適合需要快速、頻繁的 AI 推理的用例。

與其他去中心化人工智能解決方案不同,當您在 Hyperbolic 去中心化網絡上運行推理時,您可以確信自己收到了有效結果。

通過將 PoSP 集成到 EigenLayer 中, 去中心化人工智能服務 可以實現一個安全的、信任最小化的框架,可以在不犧牲去中心化或成本效率的情況下處理越來越多的推理請求。

隨機驗證: 隨機選擇驗證器來驗證輸出,確保結果公正。

可擴展的 AVS 支持:PoSP 減少了計算需求,使 EigenLayer 能夠有效地保護大規模服務。

欺詐威懾: 嚴厲的懲罰使不誠實行爲無利可圖,而誠實的行爲仍然是最佳策略。

“EigenLayer 協議與我們的採樣證明協議相結合,從根本上改變了我們保護去中心化服務的方式。我們現在以極低的成本提供可擴展、可靠且防欺詐的基礎設施。” - Hyperbolic 首席執行官Jasper Zhang 說。


在此處閱讀有關 PoSP 的完整論文

Mira

Mira Network 旨在解決人工智能領域的一個基本挑戰,即大型語言模型 (LLM) 生成錯誤信息的趨勢。 Mira 旨在減少幻覺並在無需人工監督的情況下最大限度地提高輸出準確性,它利用獨立節點的去中心化網絡來以不可信的方式並行驗證人工智能輸出。

Mira的架構分爲三個步驟

二值化(Binarization)

將輸出分解爲更簡單的“聲明”的過程。

分布式驗證

上述聲明由運行專門模型來驗證聲明的驗證者節點網絡進行驗證。驗證以多項選擇題的形式進行。用於驗證的聲明在驗證者之間隨機分片,這使得共謀變得困難。

驗證證明

採用結合了工作量證明(PoW)和權益證明(PoS)的混合共識機制。每個驗證者都需要抵押才能參與驗證。這種方法確保驗證者實際上是在執行推理,而不僅僅是證明。如果發現驗證者的輸出不斷偏離共識,那麼驗證者的質押將被削減。

當整個網絡就某一AI輸出達成共識後,系統將生成一份加密證書並寫入區塊鏈,形成一份不可篡改的“已驗證事實”記錄。


來源: Mira 網絡白皮書

隱私是 Mira 設計的一個關鍵要素。由於申明(claims)是以隨機方式分片的,單個節點運營者無法重建原始的完整輸出。此外,在達成共識之前,來自獨立驗證者的驗證響應會被保密,從而防止信息泄露。

Mira 正在尋求驗證日益復雜的內容,其中包括代碼、結構化數據和多媒體內容。未來,Mira還將在檢測到無效內容時重構無效內容,實現AI輸出的準確性和速度。最終,Mira Network 將能夠積累經濟上安全的事實,創建用於事實檢查的數據庫。

隨着網絡使用量的增長 - 產生更高的交易費用 - 更好的驗證獎勵 - 吸引更多的節點運營商 - 提高答案驗證的準確性、成本效率和響應時延

Atoma

Atoma 是一個去中心化、私有且可驗證的人工智能執行網絡,運行在 Sui 主網上。核心架構由三個要素組成:(a) 計算層; (b) 驗證層; (c)隱私層。

計算層

處理推理請求的執行節點的全球網絡。通過與各種數據中心和邊緣設備(例如個人數字設備)合作,可以獲得大量節點。

在 Atoma 網絡中,模型權重本地化存儲在節點上,使推理請求到達時能夠更快速地執行。此外,請求會被智能地路由至最適合的節點,根據任務需求匹配性能和成本最優的資源。

Atoma 通過一系列技術手段優化推理效率,其中包括 FlashAttention 和 Paged Attention,兩者都能有效降低計算開銷。

驗證層

Atoma 通過採樣共識機制確保計算結果的完整性。系統會隨機挑選部分節點進行推理,並生成其輸出的加密哈希值。若所有選中節點生成的哈希值一致,則該推理結果被視爲已驗證。若哈希值存在差異,系統會識別出不誠實的節點,並對其進行質押削減(slashing)懲罰。

惡意攻擊者能夠控制整個網絡一半或更多的 GPU 能力來欺騙系統的可能性非常低,並且隨着節點網絡的擴展變得更加困難。選擇採樣的節點數量是靈活的,對於更高權益的任務,可以選擇更大的節點集。

隱私層

Atoma 重視用戶數據的安全與隱私,其計算過程在“可信執行環境”(Trusted Execution Environment,TEE)中進行。用戶輸入的數據是加密的,僅在 TEE 中解密,確保區塊鏈上的其他任何方都無法讀取用戶數據。

盡管上述是一個安全的解決方案,但值得注意的是,它需要在較高的計算開銷方面進行權衡,這可能會導致用戶支付更高的費用。

Aizel 網絡

與上述的 Atoma Network 類似,Aizel Network 同樣採用了基於可信執行環境(Trusted Execution Environment, TEE)的架構。但其主要區別在於——Aizel 在工作流程中整合了多方安全計算(MPC, Multi-Party Computation)機制。

四十二

Fortytwo 倡導一種基於“小型專用模型(SLMs)”的“羣體推理(Swarm Inference)”架構。與傳統依賴於單一龐大模型的方式不同,Fortytwo 網絡協調多個由貢獻者運行的模型,每個模型針對特定任務或領域進行微調。這些模型並行工作,相互驗證、優化和交叉檢查輸出結果,從而實現更高準確度與可信度的推理。

這種去中心化架構有效解決了大型模型常見的諸多問題,如訓練瓶頸、高昂的硬件需求以及單點故障等。通過將智能能力分布在衆多小型模型和貢獻者之間,Fortytwo 實現了強大的可擴展性與容錯能力。

1. 小型專用模型(SLM)

意圖優先初始化

在任何任務開始之前,貢獻者指定 目標, 預算, 和 限制條件。這種方法使每個 SLM 與總體任務保持一致——無論是總結文本、分析代碼還是任何其他專門的推理。

貢獻者定義的專業化

各個節點運營商將自己的微調模型引入網絡。他們保留對權重、偏差和專有數據的完全控制——確保 隱私 對於每個模型所有者。這些專門的模型可以專注於情感分析、法律文本解析,甚至特定領域的代碼生成等領域。

權重和偏差的隱私

Fortytwo 的一個重要方面是貢獻者 不要 必須共享原始模型內部結構。僅推理結果與網絡共享。這種設計保留了每個模型所有者的知識產權,並有助於降低與暴露敏感數據相關的風險。

2. 羣體推理與節點間互評

多 SLM 協同

任務被分配給 7-8 個(或更多)專門的 SLM,每個都提供獨特的領域視角。通過將較大的任務劃分爲較小的子問題,網絡可以更有效地利用每個模型的優勢。

扁平化專家混合模型 (MoE)

與傳統的多層嵌套專家結構不同,Fortytwo 採用“扁平”MoE 架構——所有專家模型獨立處理數據,避免了復雜的層級調度機制。這種設計既高效,又讓每個模型專注於其負責的子任務。

集體錯誤檢測

節點間互評機制是保證推理準確性的關鍵。若多個模型對結果存在分歧,系統會自動標記這些差異,進行進一步分析和驗證。該交叉驗證流程可在早期發現錯誤,保障輸出質量。

3. 低延遲和分布式計算

消費級硬件

Fortytwo 針對 Apple Silicon 與 RTX GPU 等消費級硬件進行優化,顯著降低節點運營門檻,拓寬參與者範圍。這種設計推動 AI 的民主化,使更多普通用戶也能參與模型運行,而不僅限於大型數據中心。

部署集羣

許多節點運營者會選擇 AWS 等雲平台或自建集羣部署,以降低延遲。在對響應時間敏感的應用中,這類高協同集羣尤其關鍵,可有效提升用戶體驗。

4. 節點運營者社區

參與度不斷提高

數千名參與者表示有興趣運行推理節點、創建多樣化的分布式網絡。這種擴展帶來了更多的在線計算資源,進一步提高了吞吐量和彈性。

類似維基百科的模型貢獻

類似維基百科編輯協作模式,每位節點運營者可對其專長模型進行增強或微調,並分享其優化技術。這種集體式維護與改進機制不斷推動網絡智能演進,助力持續創新。

Lagrange

Lagrange 站在將零知識技術(Zero-Knowledge, ZK)引入 AI 可驗證性最前沿的位置。其口號——“AI 的未來屬於零知識,人類的未來屬於 Lagrange”——充分體現了其核心理念:隨着 AI 向超級智能演進,我們必須確保模型運行過程中的透明性與可信性。

DeepProve:高性能 zkML 框架

  • 正確模型的證明:DeepProve 以加密方式確認給定的推理使用了正確的 AI 模型,不留任何篡改或歪曲的空間。
  • 正確輸出的證明:它還保證輸出與模型真正產生的結果一致,防止惡意行爲者注入虛假結果。
  • 性能進步: 相較於現有 zkML 方案,DeepProve 在生成證明方面快 158 倍,驗證速度快 671 倍,爲大規模部署奠定基礎。

通過消除“黑箱式”AI交互,Lagrange 使用戶無需“盲目信任”AI。在強調最小化信任的去中心化環境中,關於模型完整性與結果準確性的加密確定性成爲不可或缺的保障。

而且, 推 Inference Labs 是 Lagrange 的應用研發機構,負責將前沿 ZK 研究成果轉化爲可落地的產品方案。雖然 Lagrange 專注於核心加密和電路設計,但 Inference Labs 確保這些突破已做好生產準備。

現實世界的集成

將 zkML 嵌入到現有的機器學習管道中,重點關注 DeFi、遊戲、醫療保健和供應鏈溯源等領域。

與行業領先者合作,在高參數量、大模型、嚴格延遲等真實約束下進行壓力測試。

EZKL

EZKL 是一個開源系統,專爲使用零知識證明(ZKPs)實現 AI 與分析的可驗證性而設計。它使開發者能夠在不暴露敏感數據或專有模型細節的前提下,證明 AI 模型已被正確執行。受到 Apple Face ID 等系統的啓發,EZKL 將“不可篡改的模型安全性”拓展到任何模型、任何設備——無需依賴 TEE 等專用硬件。

零知識證明基礎設施

EZKL 自動化了整個 ZKP 生命周期——從模型編譯到證明生成和驗證。用戶提供 ONNX 格式的 AI 模型,EZKL 使用 Halo2 證明系統的優化版本將其編譯成 ZK 友好電路。然後,系統生成正確模型執行的加密證明,可以在任何設備上進行驗證。

這種加密過程可以實現高風險人工智能應用程序的去中心化信任,例如金融決策、生物識別身份驗證和實時推理驗證。

協作型 SNARK(Cosnarks)

EZKL 最近推出了協作 SNARK(cosnarks),允許模型所有者和數據所有者等兩方共同生成 ZK 證明,而無需任何一方泄露其機密資產。與委托 MPC 證明系統不同,cosnarks 通過將計算限制爲僅涉及相關方來消除額外的信任假設。

這一進步使得私人信用評分、保密交易策略和零知識身份驗證等用例成爲可能。該實現利用 Renegade 的 2PC 優化 MPC 庫,並直接集成到 EZKL 的雲編排層 Lilith。

模型支持和靈活性

EZKL 支持廣泛的 AI/ML 架構,包括 CNN、RNN、GPT 式轉換器、決策樹和穩定擴散模型。任何兼容ONNX標準的模型都可以轉換成ZK電路。

通過將模型邏輯抽象爲數學電路,EZKL 能夠跨金融、醫療保健和身份等行業進行隱私保護推理。基於樹的邏輯、注意力機制和大規模矩陣運算都在 Halo2 支持的框架內得到支持。

開發者經驗

EZKL 優先考慮可訪問性和復雜性抽象。開發人員不需要事先具備密碼知識、電路設計經驗或高級 DevOps 技能。該系統提供 CLI、Python、JavaScript 和 Rust 的綁定,從而可以輕鬆地將 ZK 工作流程嵌入到現有的 ML 管道中。

自動約束生成、簡化的證明命令以及與編排工具的無縫集成使開發人員能夠專注於應用程序邏輯。

ORA 協議

ORA 是一個鏈無關(chain-agnostic)的預言機協議,專爲連接人工智能與區塊鏈而設計,使開發者能夠構建真正無需信任、完全去中心化的應用程序,其核心由可驗證的機器學習能力驅動。通過其創新性基礎設施,ORA 將 AI 推理、內容生成與復雜計算直接引入鏈上執行,不再依賴中心化計算平台或鏈下 API。

該協議允許任何開發人員構建應用程序,其中人工智能輸出(無論是語言模型響應、生成的圖像還是經過事實檢查的語句)可以嵌入到具有可審計性和正確性保證的智能合約中。

鏈上人工智能預言機(OAO)

Onchain AI Oracle(OAO)是 ORA 的旗艦產品。它使智能合約能夠請求、接收人工智能推理的結果並對其採取行動,這些結果在鏈下運行,但在鏈上進行驗證和結算。開發人員可以通過 ORA 的 opML 網絡調用 AI 推理作業。結果通過用戶合約中的回調函數返回,使鏈上應用程序成爲人工智能原生且完全自治的。

OAO 支持通過可驗證的基礎設施運行的多個大型模型,例如 LLaMA3、Stable Diffusion、OpenLM Chat/Score。開發人員可以將 OAO 集成到任何與 EVM 兼容的鏈上,而 Prompt 和 SimplePrompt 等預構建的智能合約可以在考慮 Gas 優化的情況下進行快速原型設計。

opML 和驗證工作流程

ORA 的樂觀機器學習 (opML) 系統爲其驗證層提供支持。當推理作業啓動時,結果會發布到鏈上,並帶有挑戰期。在此期間,opML 驗證器可以驗證結果,如果不正確,則提交欺詐證明。正確的結果取代有問題的結果。這確保了嵌入智能合約的人工智能輸出是可驗證的、抗審查的且經濟安全的。

這種樂觀的方法平衡了性能和去中心化。與 zkML 不同,zkML 可能需要大量的前期計算,opML 使得不誠實行爲的成功在經濟上變得不合理,尤其是隨着驗證器網絡的擴展。

開發者集成

開發人員通過文檔齊全的模塊化界面與 OAO 進行交互。要在智能合約中集成 AI 功能,開發者需繼承 AIOracleCallbackReceiver 並實現 aiOracleCallback() 函數以接收推理結果。之後可通過模型 ID、輸入數據及回調地址調用 oracle 啓動推理任務。

目前 Arbitrum 上部署了四個模型,集成就像使用 ORA 的 Prompt 模板一樣簡單。該基礎設施還通過 Lilith 支持的計算編排支持更高級的用例,從而實現更快的推理和高吞吐量工作負載。

初始模型產品(IMO)

ORA 創建了初始模型產品 (IMO) 框架,以分散 AI 模型所有權、收入和治理。 IMO 通過雙代幣結構對人工智能模型進行代幣化:

  • ERC-7007:將可驗證的人工智能生成的輸出(例如圖像、預測)直接錨定在鏈上。
  • ERC-7641:將模型使用產生的收入分配給代幣持有者,創建符合激勵、社區治理的人工智能系統。

通過實現基於代幣的治理和貨幣化,IMO 爲開源開發提供資金,同時確保人工智能基礎設施保持抗審查性、全球可訪問性和集體所有。

結論

隨着人工智能垂直領域的不斷發展,對可驗證的人工智能輸出的需求變得越來越重要。從上面可以看出,有多種方法可以確保去中心化人工智能解決方案的去信任性,包括可信執行環境(TEE)、採樣證明(PoSP)、零知識機器學習(ZKML)和樂觀機器學習(OPML)。

這些方法在各個方面有所不同,即成本、所需時間和安全保證級別。上面提到的所有解決方案很可能都會以某種方式使用,具體取決於各別實際用例。

聲明:

  1. 本文轉載自 [Hyperbolic - e/acc],原文標題《人工智能和可驗證性》,所有版權歸原作者所有[Hyperbolic - e/acc]。若對本次轉載有異議,請聯系 Gate Learn 團隊,他們會及時處理。
  2. 免責聲明:本文所表達的觀點和意見僅代表作者個人觀點,不構成任何投資建議。
  3. Gate Learn 團隊將文章翻譯成其他語言。除非另有說明,否則禁止復制、分發或抄襲翻譯文章。
Start Now
Sign up and get a
$100
Voucher!