將AI嵌入EVM

新手5/25/2024, 8:50:02 AM
本文介紹了 Axonum 平台如何將 AI 集成到以太坊中,通過 OP Rollup 和 AI EVM 實現智能合約內的原生 AI 模型推理。這對於去中心化生態系統的發展具有重大影響和潛力。

Axonum 簡介:以太坊的“大腦”

Axonum將AI嵌入區塊鏈,構建一個由全球集體智能驅動的去中心化超級計算機。

AI EVM 時代

我們正在構建 Axonum,這是一個人工智能樂觀匯總,具有世界上第一個人工智能 EVM。

我們的目標是使人工智能驅動的 DApp 的訪問民主化,使人工智能模型推理變得易於訪問且用戶友好。

Axonum 是一個樂觀匯總,包含由 opML 和 AI EVM 提供支持的 AI。它使用戶能夠在智能合約中無縫地使用本地人工智能模型,而不受復雜的底層技術的阻礙。

概述

AI EVM:嵌入式AI

爲了在智能合約中實現本地的機器學習推理,我們需要修改二層鏈的執行層。具體來說,我們在EVM中添加預編譯合約推理來構建AI EVM。

AI EVM將在本地執行中進行機器學習推理,然後返回確定性的執行結果。當用戶想使用AI模型處理數據時,所需的操作僅僅是調用具有模型地址和模型輸入的預編譯合約推理,之後便可以獲得模型輸出並在智能合約中本地使用。

  import "./AILib.sol";

contract AIContract {

...

function inference(bytes32 model_address, bytes memory input_data, uint256 output_size) public {

    bytes memory output = AILib.inference(model_address, input_data, output_size);

    emit Inference(model_address, input_data, output_size, output);

}

}

模型存儲在數據可用性(DA)層中。所有模型都可以通過模型地址從DA中檢索。我們假設所有模型的數據可用性。

預編譯合約推理的核心設計原則遵循opML的設計原則,即將執行與證明分離。我們提供了兩種預編譯合約推理的實現方式。一種是爲本地執行編譯的,優化以實現高速。另一種是爲欺詐證明虛擬機編譯的,有助於證明opML結果的正確性。

對於執行實現,我們重用opML中的機器學習引擎。我們將首先使用模型地址從模型中心獲取模型,然後將模型加載到機器學習引擎中。機器學習引擎將用戶在預編譯合約中的輸入作爲模型輸入,然後執行機器學習推理任務。機器學習引擎使用量化和軟浮點保證機器學習推理結果的一致性和確定性。

除了當前的AI EVM設計,另一種在EVM中實現AI的替代方法是添加更多特定於機器學習的操作碼,並相應地更改虛擬機的資源和定價模型以及實現方式。

Optimistic Rollup(樂觀 Rollup)

Optimistic Rollup(樂觀 Rollup)和樂觀機器學習(opML)都基於類似的防欺詐系統,因此可以將opML集成到二層(L2)鏈中,與opRollup系統一起使用變得可行。這種集成使得在L2鏈上的智能合約中無縫利用機器學習成爲可能。

與現有的 Rollup 系統一樣,Axonum 負責將交易“滾動起來”,即在將它們批處理並發布到L1鏈之前進行打包,通常通過一組序列化程序完成。這種機制可以將成千上萬的交易包含在一個滾動升級中,從而提高了整個L1和L2系統的吞吐量。

作爲樂觀 Rollup 的一種,Axonum 是L1區塊鏈的一種交互式擴展方法。我們樂觀地假設每個提議的交易默認爲有效。與傳統的L2樂觀 Rollup 系統不同,在 Axonum 中的交易可以包括 AI 模型推斷,這可以使 Axonum 上的智能合約變得“更智能”。

爲了應對潛在的無效交易,如樂觀 Rollup,Axonum 在挑戰期間引入了一個挑戰階段,參與者可以在此期間對可疑的滾動升級提出質疑。一個欺詐證明方案被制定,允許提交多個欺詐證明。這些證明可能會使滾動升級變得有效或無效。在挑戰期間,狀態變更可能會被爭議,解決或包含,如果沒有提出挑戰(並且需要的證明已經準備就緒)。

工作流程

工作流程2443×1437 183 KB

以下是 Axonum 的基本工作流程,不考慮預確認或強制退出等機制:

  1. 基本工作流程始於用戶向一個批處理節點(通常是序列化程序)發送 L2 交易(我們允許在智能合約中進行本地 AI 推斷)。
  2. 一旦序列化程序接收到一定數量的交易,它會將這些交易作爲一個批次發布到 L1 智能合約中。
  3. 驗證節點會從 L1 智能合約中讀取這些交易,並在其本地的 L2 狀態副本上執行這些交易。對於 AI 推斷執行,驗證節點需要從模型數據可用性(model DA)下載模型,並在 opML 引擎內進行 AI 推斷。
  4. 交易處理完成後,驗證節點會生成新的 L2 狀態,並將這個新的狀態根發布到 L1 智能合約中。(注意,這個驗證節點也可以是序列化程序。)
  5. 然後,所有其他驗證節點將在他們本地的 L2 狀態副本上處理相同的交易。
  6. 他們會將其結果狀態根與發布到 L1 智能合約中的原始狀態根進行比較。
  7. 如果有驗證節點得到的狀態根與發布到 L1 的狀態根不同,他們可以在 L1 上發起挑戰。
  8. 挑戰將要求挑戰者和發布原始狀態根的驗證節點輪流證明正確的狀態根應該是什麼。這個挑戰過程也稱爲欺詐證明。Axonum 的欺詐證明包括 L2 狀態轉換的欺詐證明和 opML 的欺詐證明。
  9. 無論哪一方在挑戰中失敗,都會被削減其初始押金(質押)。如果原始發布的 L2 狀態根是無效的,它將被未來的驗證節點銷毀,並且不會包含在 L2 鏈中。

欺詐證明設計

Axonum 的欺詐證明系統的核心設計原則是將 Geth(在第二層上以 Golang 實現的以太坊客戶端)和 opML 的欺詐證明過程分離開來。該設計確保了一個強大且高效的欺詐證明機制。以下是欺詐證明系統及其分離設計的詳細說明:

欺詐證明系統概述:

欺詐證明系統是確保 Axonum 樂觀 Rollup 第二層上交易安全性和完整性的關鍵組件。

它涉及對交易和計算的驗證,以確保任何惡意行爲或不準確之處都能被檢測和處理。

欺詐證明過程的分離:

Geth 欺詐證明過程:

Geth 負責第二層上的以太坊客戶端,處理與交易驗證和基本協議遵守相關的初始欺詐證明階段。

它驗證交易的正確性,並確保它們符合第二層系統的規則和協議。

opML 欺詐證明過程:

opML 是與 Axonum 集成的樂觀機器學習系統,負責與機器學習模型執行相關的更復雜的欺詐證明方面。

它驗證機器學習計算的正確性,並確保第二層框架內 AI 相關過程的完整性。

分離設計的好處:

增強效率:

通過分配欺詐證明職責,我們優化了整個系統的效率。Geth 專注於交易方面,而 opML 處理與機器學習相關的欺詐證明。

可擴展性:

分離設計允許可擴展性,使每個組件能夠根據其特定的處理需求獨立擴展。

靈活性:

這種分離提供了靈活性,可以對 Geth 或 opML 組件進行升級和改進,而不會影響整個欺詐證明系統。

Axonum:以太坊的大腦

Axonum 是第一個原生、無需信任且可驗證地在以太坊上實現 AI 的樂觀 Rollup。Axonum 利用樂觀機器學習(optimistic ML)和樂觀 Rollup,並引入 AI EVM 的創新,作爲 Layer 爲以太坊添加智能。

我們將 AI 鑲嵌到區塊鏈中,構建一個由全球集體智能驅動的去中心化超級計算機。

聲明:

  1. 本文轉載自 [ethresear],所有版權歸原作者 [Axonum] 所有。如對此轉載有異議,請聯系 Gate Learn 團隊,他們會及時處理。
  2. 責任聲明:本文所表達的觀點僅代表作者個人觀點,不構成任何投資建議。
  3. 本文翻譯由 Gate Learn 團隊完成。除非另有說明,禁止復制、分發或剽竊翻譯文章。

將AI嵌入EVM

新手5/25/2024, 8:50:02 AM
本文介紹了 Axonum 平台如何將 AI 集成到以太坊中,通過 OP Rollup 和 AI EVM 實現智能合約內的原生 AI 模型推理。這對於去中心化生態系統的發展具有重大影響和潛力。

Axonum 簡介:以太坊的“大腦”

Axonum將AI嵌入區塊鏈,構建一個由全球集體智能驅動的去中心化超級計算機。

AI EVM 時代

我們正在構建 Axonum,這是一個人工智能樂觀匯總,具有世界上第一個人工智能 EVM。

我們的目標是使人工智能驅動的 DApp 的訪問民主化,使人工智能模型推理變得易於訪問且用戶友好。

Axonum 是一個樂觀匯總,包含由 opML 和 AI EVM 提供支持的 AI。它使用戶能夠在智能合約中無縫地使用本地人工智能模型,而不受復雜的底層技術的阻礙。

概述

AI EVM:嵌入式AI

爲了在智能合約中實現本地的機器學習推理,我們需要修改二層鏈的執行層。具體來說,我們在EVM中添加預編譯合約推理來構建AI EVM。

AI EVM將在本地執行中進行機器學習推理,然後返回確定性的執行結果。當用戶想使用AI模型處理數據時,所需的操作僅僅是調用具有模型地址和模型輸入的預編譯合約推理,之後便可以獲得模型輸出並在智能合約中本地使用。

  import "./AILib.sol";

contract AIContract {

...

function inference(bytes32 model_address, bytes memory input_data, uint256 output_size) public {

    bytes memory output = AILib.inference(model_address, input_data, output_size);

    emit Inference(model_address, input_data, output_size, output);

}

}

模型存儲在數據可用性(DA)層中。所有模型都可以通過模型地址從DA中檢索。我們假設所有模型的數據可用性。

預編譯合約推理的核心設計原則遵循opML的設計原則,即將執行與證明分離。我們提供了兩種預編譯合約推理的實現方式。一種是爲本地執行編譯的,優化以實現高速。另一種是爲欺詐證明虛擬機編譯的,有助於證明opML結果的正確性。

對於執行實現,我們重用opML中的機器學習引擎。我們將首先使用模型地址從模型中心獲取模型,然後將模型加載到機器學習引擎中。機器學習引擎將用戶在預編譯合約中的輸入作爲模型輸入,然後執行機器學習推理任務。機器學習引擎使用量化和軟浮點保證機器學習推理結果的一致性和確定性。

除了當前的AI EVM設計,另一種在EVM中實現AI的替代方法是添加更多特定於機器學習的操作碼,並相應地更改虛擬機的資源和定價模型以及實現方式。

Optimistic Rollup(樂觀 Rollup)

Optimistic Rollup(樂觀 Rollup)和樂觀機器學習(opML)都基於類似的防欺詐系統,因此可以將opML集成到二層(L2)鏈中,與opRollup系統一起使用變得可行。這種集成使得在L2鏈上的智能合約中無縫利用機器學習成爲可能。

與現有的 Rollup 系統一樣,Axonum 負責將交易“滾動起來”,即在將它們批處理並發布到L1鏈之前進行打包,通常通過一組序列化程序完成。這種機制可以將成千上萬的交易包含在一個滾動升級中,從而提高了整個L1和L2系統的吞吐量。

作爲樂觀 Rollup 的一種,Axonum 是L1區塊鏈的一種交互式擴展方法。我們樂觀地假設每個提議的交易默認爲有效。與傳統的L2樂觀 Rollup 系統不同,在 Axonum 中的交易可以包括 AI 模型推斷,這可以使 Axonum 上的智能合約變得“更智能”。

爲了應對潛在的無效交易,如樂觀 Rollup,Axonum 在挑戰期間引入了一個挑戰階段,參與者可以在此期間對可疑的滾動升級提出質疑。一個欺詐證明方案被制定,允許提交多個欺詐證明。這些證明可能會使滾動升級變得有效或無效。在挑戰期間,狀態變更可能會被爭議,解決或包含,如果沒有提出挑戰(並且需要的證明已經準備就緒)。

工作流程

工作流程2443×1437 183 KB

以下是 Axonum 的基本工作流程,不考慮預確認或強制退出等機制:

  1. 基本工作流程始於用戶向一個批處理節點(通常是序列化程序)發送 L2 交易(我們允許在智能合約中進行本地 AI 推斷)。
  2. 一旦序列化程序接收到一定數量的交易,它會將這些交易作爲一個批次發布到 L1 智能合約中。
  3. 驗證節點會從 L1 智能合約中讀取這些交易,並在其本地的 L2 狀態副本上執行這些交易。對於 AI 推斷執行,驗證節點需要從模型數據可用性(model DA)下載模型,並在 opML 引擎內進行 AI 推斷。
  4. 交易處理完成後,驗證節點會生成新的 L2 狀態,並將這個新的狀態根發布到 L1 智能合約中。(注意,這個驗證節點也可以是序列化程序。)
  5. 然後,所有其他驗證節點將在他們本地的 L2 狀態副本上處理相同的交易。
  6. 他們會將其結果狀態根與發布到 L1 智能合約中的原始狀態根進行比較。
  7. 如果有驗證節點得到的狀態根與發布到 L1 的狀態根不同,他們可以在 L1 上發起挑戰。
  8. 挑戰將要求挑戰者和發布原始狀態根的驗證節點輪流證明正確的狀態根應該是什麼。這個挑戰過程也稱爲欺詐證明。Axonum 的欺詐證明包括 L2 狀態轉換的欺詐證明和 opML 的欺詐證明。
  9. 無論哪一方在挑戰中失敗,都會被削減其初始押金(質押)。如果原始發布的 L2 狀態根是無效的,它將被未來的驗證節點銷毀,並且不會包含在 L2 鏈中。

欺詐證明設計

Axonum 的欺詐證明系統的核心設計原則是將 Geth(在第二層上以 Golang 實現的以太坊客戶端)和 opML 的欺詐證明過程分離開來。該設計確保了一個強大且高效的欺詐證明機制。以下是欺詐證明系統及其分離設計的詳細說明:

欺詐證明系統概述:

欺詐證明系統是確保 Axonum 樂觀 Rollup 第二層上交易安全性和完整性的關鍵組件。

它涉及對交易和計算的驗證,以確保任何惡意行爲或不準確之處都能被檢測和處理。

欺詐證明過程的分離:

Geth 欺詐證明過程:

Geth 負責第二層上的以太坊客戶端,處理與交易驗證和基本協議遵守相關的初始欺詐證明階段。

它驗證交易的正確性,並確保它們符合第二層系統的規則和協議。

opML 欺詐證明過程:

opML 是與 Axonum 集成的樂觀機器學習系統,負責與機器學習模型執行相關的更復雜的欺詐證明方面。

它驗證機器學習計算的正確性,並確保第二層框架內 AI 相關過程的完整性。

分離設計的好處:

增強效率:

通過分配欺詐證明職責,我們優化了整個系統的效率。Geth 專注於交易方面,而 opML 處理與機器學習相關的欺詐證明。

可擴展性:

分離設計允許可擴展性,使每個組件能夠根據其特定的處理需求獨立擴展。

靈活性:

這種分離提供了靈活性,可以對 Geth 或 opML 組件進行升級和改進,而不會影響整個欺詐證明系統。

Axonum:以太坊的大腦

Axonum 是第一個原生、無需信任且可驗證地在以太坊上實現 AI 的樂觀 Rollup。Axonum 利用樂觀機器學習(optimistic ML)和樂觀 Rollup,並引入 AI EVM 的創新,作爲 Layer 爲以太坊添加智能。

我們將 AI 鑲嵌到區塊鏈中,構建一個由全球集體智能驅動的去中心化超級計算機。

聲明:

  1. 本文轉載自 [ethresear],所有版權歸原作者 [Axonum] 所有。如對此轉載有異議,請聯系 Gate Learn 團隊,他們會及時處理。
  2. 責任聲明:本文所表達的觀點僅代表作者個人觀點,不構成任何投資建議。
  3. 本文翻譯由 Gate Learn 團隊完成。除非另有說明,禁止復制、分發或剽竊翻譯文章。
ابدأ التداول الآن
اشترك وتداول لتحصل على جوائز ذهبية بقيمة
100 دولار أمريكي
و
5500 دولارًا أمريكيًا
لتجربة الإدارة المالية الذهبية!