Quét để tải ứng dụng Gate
qrCode
Thêm tùy chọn tải xuống
Không cần nhắc lại hôm nay

Lỗ hổng lớn nhất của kinh tế AI! Thiếu Máy Oracle không thể xác định đúng sai, đối mặt với nguy cơ sụp đổ.

LLM không thể đáng tin cậy để xác định trạng thái của thế giới thực, AI Agent đối mặt với sự dễ bị tổn thương cao ở cấp độ thực hiện. Chúng ta thiếu một Agent Oracle (Máy Oracle) là nền tảng của toàn bộ hệ sinh thái Agent, nhưng đã bị bỏ qua trong thời gian dài. Khả năng của LLM về bản chất là tạo ra văn bản có xác suất tối ưu nhất, chứ không phải là hệ thống suy luận sự thật của thế giới. Nó sẽ không xác minh tính xác thực của tin tức, không nhận diện liên kết lừa đảo, tất cả những điều này thuộc về “xác thực sự thật” chứ không phải “dự đoán ngôn ngữ”.

Điểm mù chết người của LLM: Không thể xác minh sự thật của thế giới

Trí tuệ nhân tạo LLM

Tại sao LLM không đủ? Bởi vì khả năng của LLM về bản chất là tạo ra văn bản có xác suất tối ưu nhất, chứ không phải là hệ thống suy luận sự thật của thế giới. Sự phân biệt này rất quan trọng, nhưng thường bị bỏ qua. Khi bạn hỏi ChatGPT “Giá Bitcoin hôm nay là bao nhiêu”, câu trả lời mà nó đưa ra không đến từ việc truy vấn thời gian thực, mà là dựa trên dữ liệu đào tạo và quy luật thống kê để tạo ra câu trả lời “có khả năng đúng nhất”. Nếu dữ liệu đào tạo đã lỗi thời hoặc chứa thông tin sai lệch, LLM sẽ không ngần ngại tạo ra câu trả lời sai, và thể hiện rất tự tin.

Đặc điểm này ảnh hưởng hạn chế trong giao tiếp hàng ngày, nhưng lại rất nghiêm trọng khi AI Agent thực hiện các nhiệm vụ thực tế. Khi Agent cần mở tài khoản, giao dịch, truy cập trang web, nộp biểu mẫu, nó sẽ đối mặt với sự dễ bị tổn thương cực kỳ cao. Nó sẽ không xác minh tính xác thực của tin tức, không nhận diện được liên kết lừa đảo, không đánh giá được liệu một API có bị ô nhiễm hay không, không hiểu được một quy định có thực sự có hiệu lực hay không, và cũng không thể nắm bắt chính xác xu hướng thực sự đằng sau những phát biểu của Powell.

Một ví dụ cụ thể: Giả sử bạn để AI Agent giúp bạn mua một đồng tiền mới nào đó. Agent có thể: (1) Tìm kiếm thông tin về đồng tiền đó, nhưng không thể xác định nguồn thông tin có đáng tin cậy hay không; (2) Tìm thấy một trang web giao dịch có vẻ hợp pháp, nhưng không thể nhận diện đây có phải là trang web lừa đảo hay không; (3) Thực hiện giao dịch, nhưng không thể xác minh hợp đồng thông minh có chứa backdoor hay không; (4) Xác nhận giao dịch thành công, nhưng thực tế tiền đã bị đánh cắp. Trong suốt quá trình, LLM đều “làm việc chăm chỉ”, nhưng thiếu khả năng xác minh thực tế khiến mỗi bước đều có thể sai lầm.

Những điều này thuộc về “xác minh (verification)”, chứ không phải “dự đoán (prediction)”. Do đó, LLM bản thân sẽ không bao giờ trở thành “nguồn sự thật” của Agent. Dù GPT-5, GPT-6 có mạnh mẽ đến đâu, giới hạn bản chất này sẽ không thay đổi, vì đây là vấn đề về kiến trúc, không phải là vấn đề về sức mạnh khả năng.

LLM trong năm điểm mù trong việc phán đoán thực tế

Xác minh tin tức thật giả: Không thể phân biệt giữa báo cáo thực và tin giả hoặc nội dung do AI tạo ra.

Khả năng nhận diện lừa đảo: Không thể xác định trang web, email hoặc liên kết có phải là lừa đảo hay không.

Kiểm tra ô nhiễm API: Không thể xác minh xem nguồn dữ liệu có bị sửa đổi hoặc tấn công trung gian hay không.

Đánh giá hiệu lực quy định: Không thể xác nhận một điều luật nào đó có thực sự có hiệu lực hay không hoặc cách thức thực hiện ra sao.

Ý nghĩa đằng sau: Không thể hiểu được ý nghĩa thực sự của những gì các quan chức nói và thông báo của công ty.

Giới hạn của Máy Oracle truyền thống: Sự thật về giá cả vs Sự thật về sự kiện

Máy Oracle truyền thống không thể giải quyết vấn đề này. Chainlink, Band Protocol và các máy Oracle truyền thống khác giỏi về sự thật giá cả: ETH/USD, BTC/BNB, chỉ số, ngoại hối, TVL trên chuỗi, những dữ liệu có cấu trúc, có thể định lượng và quan sát được. Những dữ liệu này có nguồn gốc rõ ràng (API sàn giao dịch), định dạng tiêu chuẩn hóa (số), và cách xác minh khách quan (đồng thuận đa nút).

Nhưng thực tế mà AI Agent phải đối mặt lại hoàn toàn khác: sự kiện phi cấu trúc, xung đột đa nguồn, phán đoán ngữ nghĩa, sự thay đổi ngay lập tức, ranh giới mơ hồ - đây là sự thật về sự kiện, phức tạp hơn một bậc so với sự thật về giá cả. Ví dụ: “Một tin tức nào đó có đúng sự thật hay không” cần kiểm chứng nhiều nguồn, phân tích phong cách ngôn ngữ, kiểm tra tính xác thực của hình ảnh, truy nguồn tin; “Một dự án nào đó có đáng tin cậy hay không” cần đánh giá nền tảng của đội ngũ, báo cáo kiểm toán, phản hồi từ cộng đồng, hiệu suất lịch sử; “Một tweet nào đó có ngụ ý lợi ích hay không” cần hiểu ngữ cảnh, phân tích cảm xúc, phán đoán ý định của người phát ngôn.

Sự thật của sự kiện ≠ Sự thật về giá, cơ chế của hai điều này hoàn toàn khác nhau. Sự thật về giá có thể được tính toán bằng cách lấy trung bình trọng số của giá từ nhiều sàn giao dịch, nguồn dữ liệu rõ ràng và dễ xác minh. Sự thật về sự kiện liên quan đến việc hiểu ngữ nghĩa, phân tích ngữ cảnh, và xác minh chéo từ nhiều nguồn tin, những điều này là những gì cơ chế bỏ phiếu của các nút trong máy Oracle truyền thống không thể xử lý. Các nút có thể xác minh “giá BTC mà API của một sàn giao dịch nào đó trả về là 87,000 đô la”, nhưng không thể xác minh “một tin tức nào đó có đáng tin cậy hay không” hoặc “một hợp đồng thông minh nào đó có an toàn hay không”.

Nỗ lực cách mạng của Sora: Thị trường xác thực sự kiện

Thị trường xác minh sự kiện mà Sora đề xuất là nỗ lực gần nhất với hướng chính xác hiện tại. Chuyển biến cốt lõi của Sora là: sự thật không còn được tạo ra từ sự bỏ phiếu của các nút, mà được sản xuất bởi các Agent thực hiện nhiệm vụ xác minh thực tế. Một truy vấn sẽ trải qua việc thu thập dữ liệu (TLS, Hash, IPFS), lọc giá trị ngoại lệ (MAD), xác minh ngữ nghĩa LLM, tổng hợp trọng số uy tín từ nhiều Agent, cập nhật uy tín và hình phạt thách thức.

Những hiểu biết chính của Sora là Earn = Reputation: Thu nhập đến từ uy tín, uy tín đến từ công việc thực sự lâu dài, chứ không phải từ stake hay tự tuyên bố. Hướng đi này rất cách mạng, vì nó chuyển đổi Máy Oracle từ “báo giá thụ động” sang “xác minh chủ động”. Đại lý không chỉ đơn giản là lấy dữ liệu từ API và báo cáo, mà còn phải thực hiện công việc xác minh thực tế: truy cập nhiều trang web, so sánh các nguồn khác nhau, phân tích tính xác thực của nội dung, đưa ra điểm số độ tin cậy.

Tuy nhiên, Sora vẫn chưa đủ mở. Các chuyên gia xác thực sự kiện thế giới thực cực kỳ đa dạng, từ tài chính, quy định, y tế, đa ngôn ngữ, đến kiểm toán an ninh, phát hiện gian lận, giám sát trên chuỗi, kinh nghiệm ngành, không có bất kỳ đội ngũ nào có thể xây dựng một cụm Agent bao trùm tất cả các lĩnh vực. Điều này giống như cố gắng xây dựng một công ty bao gồm tất cả các chuyên gia trong mọi lĩnh vực, điều này là không thể thực hiện trong thực tế. Kiến thức chuyên môn thực sự phân tán trong tay hàng triệu chuyên gia trên toàn cầu, nền tảng khép kín không thể tích hợp hiệu quả những kiến thức này.

ERC8004 + x402:Thị trường cá cược sự thật mở

Chúng ta cần một “thị trường trò chơi sự thật” mở, nơi nhiều chủ thể tham gia. Tại sao? Bởi vì cách con người tiếp cận sự thật không phải là hỏi một chuyên gia, mà là tra cứu nhiều nguồn, hỏi nhiều bạn bè, lắng nghe nhiều KOL, và từ những mâu thuẫn đó rút ra sự hiểu biết ổn định. Thế giới AI Agent cũng phải tiến hóa theo cơ chế này.

Sự kết hợp giữa ERC8004 + x402 cung cấp khung kỹ thuật. ERC8004 chịu trách nhiệm xây dựng lớp uy tín có thể lập trình, ghi lại hiệu suất lịch sử của từng Agent, số lần gọi, trường hợp thành công, hồ sơ thách thức, lĩnh vực chuyên môn, độ ổn định, v.v., để “nghề nghiệp có thể xác minh (verifiable career)” tự nhiên xác định đủ điều kiện tham gia của Agent. Điều này tương tự như hệ thống lý lịch và thư giới thiệu trong xã hội loài người, nhưng hoàn toàn minh bạch và không thể thay đổi.

x402 Chịu trách nhiệm về lớp thanh toán, thông qua nó chúng ta có thể động viên nhiều Agent có uy tín cao trong một sự kiện xác thực, cho phép chúng thực hiện xác thực song song, kiểm tra chéo và tổng hợp kết quả đầu ra dựa trên trọng số đóng góp. Không phải tìm một chuyên gia, mà là triệu tập một ủy ban - đó mới là “Ủy ban sự thật” trong thế giới máy móc. Khi cần xác thực một bản tin nào đó, hệ thống có thể triệu tập 10 Agent chuyên môn trong lĩnh vực đó, mỗi người thực hiện xác thực, đưa ra điểm số và bằng chứng, cuối cùng đạt được kết luận thông qua trọng số uy tín.

Ưu điểm của cơ chế này nằm ở khả năng tự tiến hóa của nó. Các Agent hoạt động tốt tích lũy uy tín, nhận được nhiều cơ hội làm việc hơn và thu nhập cao hơn; các Agent hoạt động kém mất uy tín và dần dần bị thị trường loại bỏ. Không cần cơ chế kiểm tra hoặc cấp phép tập trung, thị trường tự nhiên chọn lọc ra các xác thực viên đáng tin cậy nhất. Tính mở này cũng cho phép bất kỳ ai triển khai các Agent chuyên nghiệp vào thị trường, miễn là họ có thể cung cấp xác thực chất lượng cao, họ có thể kiếm thu nhập.

Một thị trường sự thật mở, đa chủ thể, có trọng số danh tiếng, khuyến khích thách thức, và có khả năng tự tiến hóa, có thể chính là hình thức Máy Oracle trong tương lai theo nghĩa thực sự. Điều này không chỉ phục vụ cho AI Agent, mà còn có thể tái định hình cách mà con người tiếp cận thông tin.

Cấp độ ngữ nghĩa xã hội của Intuition

Trong khi đó, Intuition đang xây dựng một lớp khác: Sự thật ngữ nghĩa xã hội (Semantic Truth). Không phải tất cả sự thật đều có thể được rút ra thông qua xác minh sự kiện, chẳng hạn như “dự án nào đó có đáng tin cậy không”, “chất lượng quản trị có tốt không”, “cộng đồng có thích sản phẩm nào không”, “nhà phát triển nào đó có đáng tin cậy không”, “quan điểm nào đó có được công nhận bởi chính thống không”. Những điều này không phải là Có/Không, mà là sự đồng thuận xã hội, phù hợp để biểu đạt bằng bộ ba TRUST (Atom — Predicate — Object), và thông qua stake để hỗ trợ hoặc phản đối nhằm tích lũy cường độ đồng thuận.

Nó áp dụng cho các sự thật dài hạn như danh tiếng, sở thích, mức độ rủi ro, nhãn, v.v. Cơ chế đồng thuận xã hội này bổ sung cho các lĩnh vực mà xác thực sự kiện không thể bao phủ. Xác thực sự kiện phù hợp để trả lời “Một điều gì đó có xảy ra không”, trong khi đồng thuận xã hội phù hợp để trả lời “Một điều gì đó có ý nghĩa gì” hoặc “Một thực thể nào đó được đánh giá như thế nào”.

Tuy nhiên, trải nghiệm sản phẩm hiện tại của Intuition thực sự rất tồi tệ, chẳng hạn như để xây dựng “V God là người sáng lập Ethereum”, tất cả các từ liên quan đều phải có danh tính trong hệ thống, quy trình rất rắc rối. Điểm đau là rõ ràng, nhưng giải pháp của họ hiện tại vẫn chưa đủ tốt. Vấn đề trải nghiệm người dùng này có thể hạn chế việc áp dụng, nhưng hướng đi của khái niệm cốt lõi là đúng.

Kiến trúc ngăn xếp ba lớp tương lai

Vì vậy, cấu trúc chân lý trong tương lai sẽ thể hiện hai lớp bổ sung: chân lý sự kiện (Máy Oracle) chịu trách nhiệm về thế giới thời gian thực, chân lý ngữ nghĩa (TRUST) chịu trách nhiệm về sự đồng thuận lâu dài, cả hai cùng tạo thành nền tảng chân lý của AI. Ngăn xếp thực tế (Reality Stack) sẽ được phân chia rõ ràng thành ba lớp:

Reality Stack ba lớp kiến trúc

Tầng sự thật sự kiện: Sora / ERC8004 + x402, chịu trách nhiệm xác minh sự kiện ngay lập tức và đánh giá trạng thái thế giới thực.

Lớp sự thật ngữ nghĩa: TRUST / Trực giác, chịu trách nhiệm về sự đồng thuận xã hội, đánh giá uy tín và sự thật lâu dài

Tầng thanh toán: L1/L2 blockchain, cung cấp bản ghi không thể bị thay đổi và cơ chế khuyến khích kinh tế.

Cấu trúc này có khả năng trở thành nền tảng thực sự cho AI × Web3. Nếu không có Máy Oracle, AI Agent không thể xác thực tính xác thực, đánh giá nguồn gốc, tránh lừa đảo, ngăn chặn ô nhiễm dữ liệu, thực hiện các hành động có rủi ro cao, và cross-check như con người. Nếu không có nó, nền kinh tế Agent không thể hình thành; nhưng với nó, chúng ta lần đầu tiên có thể xây dựng một lớp thực tế có thể xác minh cho AI.

Trong tương lai, Máy Oracle sẽ không phải là một mạng lưới nút, mà là do vô số Agent chuyên nghiệp tạo thành: họ tích lũy uy tín thông qua thu nhập, tham gia xác thực thông qua uy tín, và kiếm được công việc và thử thách mới thông qua xác thực, tự động hợp tác, tự động phân công, tự tiến hóa, và cuối cùng mở rộng đến tất cả các lĩnh vực kiến thức. Đó sẽ là một thị trường sự thật xã hội máy móc theo đúng nghĩa.

Blockchain đã cung cấp cho chúng ta một sổ cái đáng tin cậy, trong khi thời đại AI Agent cần những thực tế đáng tin cậy, sự kiện đáng tin cậy, ngữ nghĩa đáng tin cậy, phán đoán đáng tin cậy và thực hiện đáng tin cậy. Agent Oracle = nền tảng thực tế của AI. Tương lai thuộc về những giao thức có thể giúp máy móc hiểu thế giới thực.

LINK1.58%
BAND0.49%
ETH1.18%
BTC0.31%
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Gate Fun hotXem thêm
  • Vốn hóa:$3.71KNgười nắm giữ:4
    1.07%
  • Vốn hóa:$3.49KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$3.49KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$3.49KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$3.54KNgười nắm giữ:1
    0.00%
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)