新的人工智能聯盟旨在通過用戶擁有的數據結束大科技公司的主導地位

Cheqd、DataHive、Nuklai 和 Datagram 已成立主權人工智能聯盟,這是一個旨在開發基於用戶擁有數據的去中心化人工智能的開源框架的新倡議。

該聯盟於5月1日通過與crypto.news共享的新聞稿宣布,重點將是建立支持隱私保護AI系統的技術基礎設施。該項目的核心是提議的意圖網路協議,旨在使AI代理能夠安全協作,而不妨礙用戶對個人數據的控制。

INP由三個關鍵組成部分構成:"意圖錨點"用於捕捉用戶輸入並提供數據所有權保障;"意圖網",一個用於AI通信的去中心化環境;以及"執行節點",它根據用戶意圖進行操作並內置隱私保護。

該聯盟還概述了更廣泛的路線圖,其中包括去中心化的數據存儲、開源的人工智能模型以及供人工智能代理自主交易和協作的工具。根據創始人的說法,這一努力旨在將數據經濟從“基於注意力”轉變爲“基於意圖”,用戶處於中心位置。

爲什麼這個聯盟重要

隨着對集中式人工智能模型使用個人數據的審查加劇,SAIA 進入了這一場景,同時歐洲及其他地區的監管者要求更多的透明度和用戶控制。

cheqd的首席執行官Fraser Edwards在接受crypto.news採訪時表示,目前的AI模型往往在沒有有意義的同意下交易用戶數據。他說:“用戶用他們的個人數據支付,這些數據被提取、聚合和商品化。”

根據愛德華茲的說法,聯盟的方法使用戶能夠選擇性地共享數據,潛在地實現貨幣化,並保持撤銷訪問的能力,提供了一個集中平台難以提供的控制水平。

雖然之前“支付用戶數據”的努力遭遇挫折,但SAIA的架構旨在將用戶數據視爲在基於同意的生態系統中可重復使用和可驗證的資產。它還包括合規性工具,如審計追蹤和選擇性披露,以幫助應用程序滿足全球隱私標準,如GDPR。

以下是與Fraser Edwards的完整問答,內容涉及SAIA的計劃、挑戰和用戶激勵。

crypto.news:主權人工智能聯盟的願景是構建開放原始碼、去中心化的人工智能框架,使用者擁有數據。這在理論上聽起來很有趣,但這將比大型科技公司的人工智能產品提供哪些優勢呢?人工智能服務“免費”提供,實際上是通過交易他們的數據,這在大多數人中已經被接受爲常態多年。爲什麼用戶和開發者會轉向自我主權模型?有什麼真正的激勵(金錢、隱私或其他)能使你用戶擁有的數據方法足夠有吸引力以推動採用呢? Fraser Edwards:Sovereign AI Alliance 模型的核心優勢是一致性。適合您的 AI,而不是爲您的注意力或數據貨幣化的平台。今天的“免費”AI 工具並不是真正免費的。用戶使用他們的個人數據進行支付,這些數據被提取、aggreGate.iod 和商品化,通常以無法控制或審計的方式進行。這推動了參與驅動的系統,這些系統優先考慮病毒式傳播和保留,而不是個人利益。 一個現實世界的例子是對Meta的人工智能嵌入WhatsApp的反對。盡管Meta聲稱尊重隱私,但用戶無法關閉它,而且很少有人相信該公司會以他們的最佳利益行事。這削弱了人們對大型科技公司數據管理的信心。

相對而言,主權人工智能是圍繞用戶擁有的數據構建的,個人控制着他們的信息如何被使用、共享和貨幣化。自我主權模型使人們能夠擁有他們的數字自我,而這正是大科技公司無法在不拆解其整個商業模型的情況下提供的。

爲了讓人工智能真正個性化和實用,它需要訪問豐富的跨上下文數據並獲得完全的權限。如果數據在各個平台之間孤立,人工智能將會受到限制且缺乏人情味。主權人工智能使智能系統更加強大,並更加尊重它們服務的對象。

該模型提供三種激勵措施以推動採用:

  • 隱私設計:數據不會被吸入不透明的企業系統。相反,它通過去中心化身份和存儲基礎設施保持在用戶的控制之中。
  • 貨幣激勵:通過像 cheqd 的支付系統這樣的框架,用戶和開發者可以通過分享驗證的數據或訓練 AI 代理來獲得報酬,創造一個真實的數據經濟。
  • 真實個性化:像DataHive開發的個人AI和代理可以根據您的真實意圖而非最大化廣告收入的方式代表您行事。

CN: 這裏的一個核心理念是個人控制(並可能將)自己的數據貨幣化。然而,許多過去的項目承諾“爲你的數據付費”,但都遭遇了困難,部分原因是普通用戶的數據在個體層面上的價值不高或不值得花時間。那麼,SAIA將如何改變這種局面?你們是否計劃直接獎勵用戶以便他們貢獻數據或提供AI訓練反饋,還是好處更多是間接的(例如更好的個性化和隱私)?如果用戶無法獲得可觀的收入,他們主動分享和管理自己在這個網路中的數據的吸引力何在?

FE:過去的“爲您的數據付費”模型確實經常失敗,因爲它們將數據視爲一次性商品,而不是持續的、基於意圖的生態系統的一部分。主權人工智能聯盟通過重新構想數據爲可重復使用的高價值資產,改變了這一方程式,在一個去中心化的基於意圖的人工智能框架內。

對於 cheqd,我們通過使個人能夠控制和重用自己的數據來實現這一目標,但同樣重要的是,我們正在構建激勵公司和數據孤島將這些數據重新釋放給個人的基礎設施。

與其承諾爲孤立的數據點提供快速的微型獎勵,cheqd的基礎設施支持一種模型,用戶可以按照自己的條件選擇性地共享經過驗證的、可重復使用的數據,例如憑證、偏好或同意。這爲更有意義的長期價值打開了可能性,無論是個性化的AI服務、選擇性貨幣化,還是更好的控制。真正的轉變在於權力的重新平衡:使用戶能夠攜帶他們的數據並在不同的AI系統中使用,而不會被困在孤島中。

CN: 以用戶擁有的數據爲中心,您是如何從一開始就解決隱私和合規性的問題?如果個人數據被用於訓練或指導AI模型,用戶是否擁有細粒度的控制權以及選擇退出或撤銷數據的能力?最近的監管行動表明這一點至關重要 – 例如,意大利的數據保護機構因其大規模收集個人數據用於訓練“缺乏任何法律依據”而暫時禁止ChatGPT。SAIA在處理用戶數據時將如何不同,以確保其符合(GDPR等隱私法和其他)倫理規範? FE:合規性和隱私性是SAIA架構的基礎。SAIA的基礎是用戶主權,默認情況下無需中央數據孤島,這與典型的人工智能模型在沒有有效同意的情況下批量收集數據形成對比。

  • 數據由用戶控制用戶可以隨時通過去中心化身份(cheqd)和存儲協議(Datagram等授予、撤銷或限制對其數據的訪問。該機制符合GDPR中關於數據最小化和被遺忘權的概念。
  • 同意是明確且可撤銷的我們正在開發系統,使用戶能夠明確表示同意使用他們的數據,例如用於憑證共享、代理互動或人工智能訓練。通過可驗證的同意記錄和特定意圖的用例,法律基礎和可追溯性得到了保證。
  • 內置合規工具我們正在創建嵌入式合規功能,如審計追蹤、數據來源和選擇性披露,以便使用SAIA框架的AI代理和應用不僅符合隱私要求,而且可以證明符合全球法規。

CN: cheqd爲聯盟帶來了去中心化身份)自我主權身分/SSI(和驗證基礎設施。SSI將如何融入AI框架?例如,意圖錨點是否會使用數字身份來驗證數據來源或AI代理的聲譽?考慮到去中心化身份仍處於初期階段,即使是身分專家也指出,由於對用戶和組織增加的復雜性,採用是最大挑戰,您將如何鼓勵和推動SSI在SAIA中的使用?

FE: “SSI在主權人工智能聯盟的架構中扮演着關鍵角色。它是連接人工智能代理、人員和數據的信任層。以下是我們打算如何克服採用障礙,以及cheqd的去中心化身份基礎設施如何適應這一框架。

這同樣適用於人工智能代理自身:通過向代理發放可驗證的憑證,我們可以建立信譽、能力和真實性。這對於代理與代理之間或代理與用戶之間的互動中的信任至關重要。

採用確實是今天 SSI 最大的挑戰。雖然 cheqd 位於基礎設施層,但 DataHive 是直接面向客戶的,從而爲消費者提供了解決方案,他們可以將自己的數據帶入其中。

查看原文
本頁面內容僅供參考,非招攬或要約,也不提供投資、稅務或法律諮詢。詳見聲明了解更多風險披露。
  • 讚賞
  • 留言
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate.io APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)