LLM не може надійно оцінити стан реального світу, AI Agent стикається з високою вразливістю на етапі виконання. Нам бракує Agent Oracle (Оракул-машина), який є основою всього агентського екосистеми, але його давно ігнорують. Суть можливостей LLM полягає у генерації тексту з найбільшою ймовірністю, а не в системі, що виводить істину світу. Він не перевіряє правдивість новин, не розпізнає фішингові посилання, все це належить до “перевірки фактів”, а не до “прогнозування мови”.
Смертельна сліпота LLM: неможливість перевірки світової правди
Чому LLM недостатньо? Тому що сутність можливостей LLM полягає в генерації тексту з найбільшою ймовірністю, а не в системі, що виводить істину світу. Ця відмінність є надзвичайно важливою, але часто ігнорується. Коли ви запитуєте ChatGPT: «Яка сьогодні ціна біткоїна?», відповідь, яку він надає, не ґрунтується на миттєвому запиті, а є «найімовірніше правильною» відповіддю, що генерується на основі навчальних даних і статистичних закономірностей. Якщо навчальні дані застарілі або містять помилкову інформацію, LLM без вагань згенерує неправильну відповідь, і при цьому буде поводитися надзвичайно впевнено.
Ця характеристика має обмежений вплив у повсякденній розмові, але є фатальною, коли AI Agent виконує реальні завдання. Коли Агенту потрібно відкрити рахунок, провести транзакцію, відвідати вебсайт або подати форму, він піддається надзвичайно високій вразливості. Він не перевіряє правдивість новин, не розпізнає фішингові посилання, не визначає, чи забруднений певний API, не розуміє, чи дійсно набрала чинності певна нормативна дія, і не може точно оцінити реальний ухил за словами Пауелла.
Конкретний приклад: припустимо, ви дозволяєте AI Agent допомогти вам купити певну нову монету. Агент може: (1) шукати інформацію про цю монету, але не може визначити, чи є джерело інформації надійним; (2) знайти сайт для торгівлі, який виглядає легітимно, але не може визначити, чи є це фішинговим сайтом; (3) виконати угоду, але не може перевірити, чи містить смарт-контракт задні двері; (4) підтвердити успішність угоди, але фактично кошти вже були вкрадені. Протягом усього процесу LLM «виконує свої обов'язки», але відсутність здатності до перевірки реального світу може призвести до помилок на кожному етапі.
Ці всі належать до «фактчекінгу (verification)», а не до «мовного прогнозування (prediction)». Таким чином, LLM ніколи не зможе стати «джерелом істини» для Агента. Незалежно від того, наскільки потужними стануть GPT-5, GPT-6, ця суттєва обмеження не зміниться, оскільки це питання архітектурного рівня, а не питання сили можливостей.
LLM в реальному судженні: п'ять основних сліпих зон
Перевірка справжності новин: неможливо відрізнити справжні повідомлення від фейкових новин або контенту, згенерованого ШІ
Здатність виявляти фішинг: неможливо визначити, чи є веб-сайт, електронна пошта або посилання шахрайськими
API забруднення перевірка: неможливо перевірити, чи були дані змінені або піддані атаці посередника
Оцінка ефективності регулювання: неможливо підтвердити, чи справді певний закон набрав чинності або як його виконувати
Сутність наміру: не можу зрозуміти справжнього значення слів чиновників та оголошень компанії
Обмеження традиційної Оракул-машини: істина ціни vs істина події
Традиційні оракул-машини не можуть вирішити цю проблему. Chainlink, Band Protocol та інші традиційні оракул-машини спеціалізуються на ціновій істині: ETH/USD, BTC/BNB, індекси, валютні курси, ланцюговий TVL, ці структуровані, кількісні та спостережувані дані. Ці дані мають чіткі джерела (API біржі), стандартизований формат (числовий), об'єктивний спосіб верифікації (багатонодова консенсус).
Але з якою реальністю стикається AI Agent, це зовсім інша реальність: неструктуровані події, багатоджерельні конфлікти, семантичне судження, миттєві зміни, розмиті межі — це правда подій, що ускладнена на порядок більше, ніж правда цін. Наприклад: “Чи правдива певна новина” потрібно перевірити за кількома джерелами, проаналізувати стиль мови, перевірити справжність зображень, відстежити джерело інформації; “Чи є певний проект надійним” потрібно оцінити фон команди, аудиторські звіти, зворотний зв'язок спільноти, історичні показники; “Чи натякає певний твіт на позитив” потрібно зрозуміти контекст, проаналізувати емоції, визначити наміри мовця.
Істина події ≠ істина ціни, механізми обох зовсім різні. Істину ціни можна отримати шляхом зваженого середнього значення цін на кількох біржах, джерела даних чіткі та легкі для перевірки. Істина події ж передбачає розуміння семантики, аналіз контексту, перехресну перевірку численних джерел інформації, з чим традиційна оракул-машина не може впоратися. Вузли можуть перевірити, що “API певної біржі повертає ціну BTC у 87,000 доларів”, але не можуть перевірити, “наскільки новина є надійною” або “наскільки безпечний певний смарт-контракт”.
Революційна спроба Sora: ринок верифікації подій
Ринок верифікації подій, запропонований Sora, є наразі найнаближенішою до правильного напрямку спробою. Основна трансформація Sora полягає в тому, що істина більше не формується голосуванням вузлів, а створюється Agent, який виконує реальні верифікаційні завдання. Запит проходитиме через збори даних (TLS, Hash, IPFS), фільтрацію аномалій (MAD), семантичну верифікацію LLM, агрегацію зваженої репутації кількох агентів, оновлення репутації та покарання за виклик.
Ключове розуміння Sora полягає в тому, що Earn = Репутація: дохід походить з репутації, а репутація базується на тривалій справжній роботі, а не на ставці або самоствердженні. Цей напрямок є дуже революційним, оскільки він перетворює оракул-машину з «пасивних котирувань» в «активну верифікацію». Агент не просто витягує дані з API та звітує, а виконує фактичну верифікаційну роботу: відвідує кілька сайтів, порівнює різні джерела, аналізує справжність контенту, надає оцінку впевненості.
Однак Sora все ще недостатньо відкрита. Експерти з верифікації подій у реальному світі надзвичайно різноманітні: від фінансів, регулювання, медицини, багатомовності до аудиту безпеки, виявлення шахрайства, моніторингу в ланцюгах, галузевого досвіду, жодна окрема команда не може створити агентське угруповання, яке охоплювало б усі ці сфери. Це подібно до спроби створити компанію, що включає всіх експертів у всіх сферах, що на практиці є неможливим. Справжнє професійне знання розподілене серед сотень мільйонів експертів у всьому світі, закриті платформи не можуть ефективно інтегрувати ці знання.
ERC8004 + x402: Відкритий ринок гри на правду
Нам потрібен відкритий, багатосторонній «ринок істини». Чому? Тому що спосіб, яким людство отримує істину, полягає не в тому, щоб запитувати одного експерта, а в тому, щоб перевіряти кілька джерел, питати кількох друзів, слухати кількох KOL, а потім витягувати стабільне розуміння з конфліктів. Світ AI Agent також повинен еволюціонувати згідно з цим механізмом.
Комбінація ERC8004 + x402 забезпечує технічну основу. ERC8004 відповідає за створення програмованого шару репутації, який записує історичні результати, кількість викликів, успішні випадки, записи про виклики, професійні сфери, стабільність тощо кожного агента, дозволяючи “перевіреній кар'єрі” природно визначати кваліфікацію участі агента. Це подібно до резюме та рекомендаційних листів у людському суспільстві, але повністю прозоро і незмінно.
x402 Відповідальний за платіжний рівень, через який ми можемо динамічно залучати кілька агентів з високою репутацією для паралельної перевірки та перехресної перевірки під час одного події, і згрупувати результати на основі ваги внеску. Це не пошук одного експерта, а скликання комісії — ось що таке «комісія правди» у світі машин. Коли потрібно перевірити якусь новину, система може залучити 10 агентів, які спеціалізуються в цій області, кожен з яких виконує перевірку, надає оцінки та докази, і в кінцевому підсумку доходить до висновку через вагу репутації.
Перевага цього механізму полягає в його здатності до саморозвитку. Агент, який демонструє хороші результати, накопичує репутацію, отримує більше можливостей для роботи та вищий дохід; агент, що показує погані результати, втрачає репутацію і поступово витискається з ринку. Не потрібна централізована перевірка або механізм допуску, ринок природно відбирає найнадійніших верифікаторів. Ця відкритість також дозволяє будь-кому розгортати професійних агентів на ринку, і якщо вони можуть забезпечити високу якість верифікації, то можуть заробляти дохід.
Відкритий, багатогранний, репутаційно ваговий, викликово стимулюючий, автоматично еволюційний ринок істини, можливо, є справжньою формою майбутньої оракул-машини. Це не лише служить AI Agent, але також може перетворити спосіб отримання інформації людьми.
Соціально-семантичний шар інтуїції
Водночас Intuition будує ще один рівень: соціальна семантична істина (Semantic Truth). Не всі істини можна отримати через верифікацію подій, наприклад, “Чи є проект надійним”, “Чи є якість управління гарною”, “Чи подобається спільноті певний продукт”, “Чи є розробник надійним”, “Чи визнається певна точка зору основними засобами”. Це не так просто, як Так/Ні, а є соціальним консенсусом, що підходить для вираження через тріаду TRUST (Атом — Предикат — Об'єкт) і накопичення сили консенсусу через підтримку або заперечення stake.
Вона підходить для довгострокових фактів, таких як репутація, переваги, рівень ризику, ярлики тощо. Цей механізм соціального консенсусу доповнює сфери, які не охоплюються верифікацією подій. Верифікація подій підходить для відповіді на питання “Чи відбулося щось”, а соціальний консенсус підходить для відповіді на питання “Що щось означає” або “Як оцінюється певний суб'єкт”.
Але теперішній продукт Intuition дійсно має жахливий досвід користування, наприклад, щоб створити «V, що є засновником Ethereum», всі відповідні терміни повинні мати ідентифікацію в системі, процес дуже незграбний. Больова точка чітка, але їхнє рішення поки що недостатньо хороше. Такі проблеми з досвідом користування можуть обмежити його прийняття, але основна концепція має правильний напрямок.
Триступенева архітектура майбутнього
Отже, структура істини майбутнього буде представлена двома взаємодоповнюючими шарами: істина події (Агент Оракул) відповідає за миттєвий світ, семантична істина (TRUST) відповідає за довгострокову консенсус, обидва разом складають основу істини ШІ. Реальний стек (Reality Stack) буде чітко розділений на три шари:
Reality Stack тришарова структура
Рівень істини подій: Sora / ERC8004 + x402, відповідальний за миттєву верифікацію подій та оцінку стану реального світу.
Семантичний рівень істини: ДОВІРА / Інтуїція, відповідальний за соціальний консенсус, оцінку репутації та довгострокові факти
Рівень розрахунків: L1/L2 блокчейн, що забезпечує незмінні записи та економічні стимули.
Ця структура, ймовірно, стане справжньою основою AI × Web3. Без Оракул-машини AI Агент не зможе перевірити правдивість, оцінити джерело, уникнути шахрайства, запобігти забрудненню даних, здійснювати високоризикові дії та перевіряти інформацію, як людина. Без неї економіка Агентів не може існувати; але з нею ми вперше можемо створити для AI перевірний рівень реальності.
Майбутня оракул-машина не буде мережею вузлів, а складатиметься з безлічі професійних агентів: вони накопичують репутацію через доходи, беруть участь у верифікації через репутацію, отримують нові роботи та виклики через верифікацію, автоматично співпрацюють, автоматично розподіляють обов'язки, самостійно еволюціонують, і врешті-решт розширюються до всіх сфер знань. Це буде справжній ринковий механізм соціуму машин.
Блокчейн надав нам надійну книгу обліку, а епоха AI Agent вимагає надійної реальності, надійних подій, надійної семантики, надійних суджень, надійного виконання. Агент Оракул = реальна основа AI. Майбутнє належить тим, хто може допомогти машинам зрозуміти реальний світ.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Найбільша вразливість AI-економіки! Без Оракул-машини неможливо визначити правду чи брехню, що створює ризик краху.
LLM не може надійно оцінити стан реального світу, AI Agent стикається з високою вразливістю на етапі виконання. Нам бракує Agent Oracle (Оракул-машина), який є основою всього агентського екосистеми, але його давно ігнорують. Суть можливостей LLM полягає у генерації тексту з найбільшою ймовірністю, а не в системі, що виводить істину світу. Він не перевіряє правдивість новин, не розпізнає фішингові посилання, все це належить до “перевірки фактів”, а не до “прогнозування мови”.
Смертельна сліпота LLM: неможливість перевірки світової правди
! AI LLM
Чому LLM недостатньо? Тому що сутність можливостей LLM полягає в генерації тексту з найбільшою ймовірністю, а не в системі, що виводить істину світу. Ця відмінність є надзвичайно важливою, але часто ігнорується. Коли ви запитуєте ChatGPT: «Яка сьогодні ціна біткоїна?», відповідь, яку він надає, не ґрунтується на миттєвому запиті, а є «найімовірніше правильною» відповіддю, що генерується на основі навчальних даних і статистичних закономірностей. Якщо навчальні дані застарілі або містять помилкову інформацію, LLM без вагань згенерує неправильну відповідь, і при цьому буде поводитися надзвичайно впевнено.
Ця характеристика має обмежений вплив у повсякденній розмові, але є фатальною, коли AI Agent виконує реальні завдання. Коли Агенту потрібно відкрити рахунок, провести транзакцію, відвідати вебсайт або подати форму, він піддається надзвичайно високій вразливості. Він не перевіряє правдивість новин, не розпізнає фішингові посилання, не визначає, чи забруднений певний API, не розуміє, чи дійсно набрала чинності певна нормативна дія, і не може точно оцінити реальний ухил за словами Пауелла.
Конкретний приклад: припустимо, ви дозволяєте AI Agent допомогти вам купити певну нову монету. Агент може: (1) шукати інформацію про цю монету, але не може визначити, чи є джерело інформації надійним; (2) знайти сайт для торгівлі, який виглядає легітимно, але не може визначити, чи є це фішинговим сайтом; (3) виконати угоду, але не може перевірити, чи містить смарт-контракт задні двері; (4) підтвердити успішність угоди, але фактично кошти вже були вкрадені. Протягом усього процесу LLM «виконує свої обов'язки», але відсутність здатності до перевірки реального світу може призвести до помилок на кожному етапі.
Ці всі належать до «фактчекінгу (verification)», а не до «мовного прогнозування (prediction)». Таким чином, LLM ніколи не зможе стати «джерелом істини» для Агента. Незалежно від того, наскільки потужними стануть GPT-5, GPT-6, ця суттєва обмеження не зміниться, оскільки це питання архітектурного рівня, а не питання сили можливостей.
LLM в реальному судженні: п'ять основних сліпих зон
Перевірка справжності новин: неможливо відрізнити справжні повідомлення від фейкових новин або контенту, згенерованого ШІ
Здатність виявляти фішинг: неможливо визначити, чи є веб-сайт, електронна пошта або посилання шахрайськими
API забруднення перевірка: неможливо перевірити, чи були дані змінені або піддані атаці посередника
Оцінка ефективності регулювання: неможливо підтвердити, чи справді певний закон набрав чинності або як його виконувати
Сутність наміру: не можу зрозуміти справжнього значення слів чиновників та оголошень компанії
Обмеження традиційної Оракул-машини: істина ціни vs істина події
Традиційні оракул-машини не можуть вирішити цю проблему. Chainlink, Band Protocol та інші традиційні оракул-машини спеціалізуються на ціновій істині: ETH/USD, BTC/BNB, індекси, валютні курси, ланцюговий TVL, ці структуровані, кількісні та спостережувані дані. Ці дані мають чіткі джерела (API біржі), стандартизований формат (числовий), об'єктивний спосіб верифікації (багатонодова консенсус).
Але з якою реальністю стикається AI Agent, це зовсім інша реальність: неструктуровані події, багатоджерельні конфлікти, семантичне судження, миттєві зміни, розмиті межі — це правда подій, що ускладнена на порядок більше, ніж правда цін. Наприклад: “Чи правдива певна новина” потрібно перевірити за кількома джерелами, проаналізувати стиль мови, перевірити справжність зображень, відстежити джерело інформації; “Чи є певний проект надійним” потрібно оцінити фон команди, аудиторські звіти, зворотний зв'язок спільноти, історичні показники; “Чи натякає певний твіт на позитив” потрібно зрозуміти контекст, проаналізувати емоції, визначити наміри мовця.
Істина події ≠ істина ціни, механізми обох зовсім різні. Істину ціни можна отримати шляхом зваженого середнього значення цін на кількох біржах, джерела даних чіткі та легкі для перевірки. Істина події ж передбачає розуміння семантики, аналіз контексту, перехресну перевірку численних джерел інформації, з чим традиційна оракул-машина не може впоратися. Вузли можуть перевірити, що “API певної біржі повертає ціну BTC у 87,000 доларів”, але не можуть перевірити, “наскільки новина є надійною” або “наскільки безпечний певний смарт-контракт”.
Революційна спроба Sora: ринок верифікації подій
Ринок верифікації подій, запропонований Sora, є наразі найнаближенішою до правильного напрямку спробою. Основна трансформація Sora полягає в тому, що істина більше не формується голосуванням вузлів, а створюється Agent, який виконує реальні верифікаційні завдання. Запит проходитиме через збори даних (TLS, Hash, IPFS), фільтрацію аномалій (MAD), семантичну верифікацію LLM, агрегацію зваженої репутації кількох агентів, оновлення репутації та покарання за виклик.
Ключове розуміння Sora полягає в тому, що Earn = Репутація: дохід походить з репутації, а репутація базується на тривалій справжній роботі, а не на ставці або самоствердженні. Цей напрямок є дуже революційним, оскільки він перетворює оракул-машину з «пасивних котирувань» в «активну верифікацію». Агент не просто витягує дані з API та звітує, а виконує фактичну верифікаційну роботу: відвідує кілька сайтів, порівнює різні джерела, аналізує справжність контенту, надає оцінку впевненості.
Однак Sora все ще недостатньо відкрита. Експерти з верифікації подій у реальному світі надзвичайно різноманітні: від фінансів, регулювання, медицини, багатомовності до аудиту безпеки, виявлення шахрайства, моніторингу в ланцюгах, галузевого досвіду, жодна окрема команда не може створити агентське угруповання, яке охоплювало б усі ці сфери. Це подібно до спроби створити компанію, що включає всіх експертів у всіх сферах, що на практиці є неможливим. Справжнє професійне знання розподілене серед сотень мільйонів експертів у всьому світі, закриті платформи не можуть ефективно інтегрувати ці знання.
ERC8004 + x402: Відкритий ринок гри на правду
Нам потрібен відкритий, багатосторонній «ринок істини». Чому? Тому що спосіб, яким людство отримує істину, полягає не в тому, щоб запитувати одного експерта, а в тому, щоб перевіряти кілька джерел, питати кількох друзів, слухати кількох KOL, а потім витягувати стабільне розуміння з конфліктів. Світ AI Agent також повинен еволюціонувати згідно з цим механізмом.
Комбінація ERC8004 + x402 забезпечує технічну основу. ERC8004 відповідає за створення програмованого шару репутації, який записує історичні результати, кількість викликів, успішні випадки, записи про виклики, професійні сфери, стабільність тощо кожного агента, дозволяючи “перевіреній кар'єрі” природно визначати кваліфікацію участі агента. Це подібно до резюме та рекомендаційних листів у людському суспільстві, але повністю прозоро і незмінно.
x402 Відповідальний за платіжний рівень, через який ми можемо динамічно залучати кілька агентів з високою репутацією для паралельної перевірки та перехресної перевірки під час одного події, і згрупувати результати на основі ваги внеску. Це не пошук одного експерта, а скликання комісії — ось що таке «комісія правди» у світі машин. Коли потрібно перевірити якусь новину, система може залучити 10 агентів, які спеціалізуються в цій області, кожен з яких виконує перевірку, надає оцінки та докази, і в кінцевому підсумку доходить до висновку через вагу репутації.
Перевага цього механізму полягає в його здатності до саморозвитку. Агент, який демонструє хороші результати, накопичує репутацію, отримує більше можливостей для роботи та вищий дохід; агент, що показує погані результати, втрачає репутацію і поступово витискається з ринку. Не потрібна централізована перевірка або механізм допуску, ринок природно відбирає найнадійніших верифікаторів. Ця відкритість також дозволяє будь-кому розгортати професійних агентів на ринку, і якщо вони можуть забезпечити високу якість верифікації, то можуть заробляти дохід.
Відкритий, багатогранний, репутаційно ваговий, викликово стимулюючий, автоматично еволюційний ринок істини, можливо, є справжньою формою майбутньої оракул-машини. Це не лише служить AI Agent, але також може перетворити спосіб отримання інформації людьми.
Соціально-семантичний шар інтуїції
Водночас Intuition будує ще один рівень: соціальна семантична істина (Semantic Truth). Не всі істини можна отримати через верифікацію подій, наприклад, “Чи є проект надійним”, “Чи є якість управління гарною”, “Чи подобається спільноті певний продукт”, “Чи є розробник надійним”, “Чи визнається певна точка зору основними засобами”. Це не так просто, як Так/Ні, а є соціальним консенсусом, що підходить для вираження через тріаду TRUST (Атом — Предикат — Об'єкт) і накопичення сили консенсусу через підтримку або заперечення stake.
Вона підходить для довгострокових фактів, таких як репутація, переваги, рівень ризику, ярлики тощо. Цей механізм соціального консенсусу доповнює сфери, які не охоплюються верифікацією подій. Верифікація подій підходить для відповіді на питання “Чи відбулося щось”, а соціальний консенсус підходить для відповіді на питання “Що щось означає” або “Як оцінюється певний суб'єкт”.
Але теперішній продукт Intuition дійсно має жахливий досвід користування, наприклад, щоб створити «V, що є засновником Ethereum», всі відповідні терміни повинні мати ідентифікацію в системі, процес дуже незграбний. Больова точка чітка, але їхнє рішення поки що недостатньо хороше. Такі проблеми з досвідом користування можуть обмежити його прийняття, але основна концепція має правильний напрямок.
Триступенева архітектура майбутнього
Отже, структура істини майбутнього буде представлена двома взаємодоповнюючими шарами: істина події (Агент Оракул) відповідає за миттєвий світ, семантична істина (TRUST) відповідає за довгострокову консенсус, обидва разом складають основу істини ШІ. Реальний стек (Reality Stack) буде чітко розділений на три шари:
Reality Stack тришарова структура
Рівень істини подій: Sora / ERC8004 + x402, відповідальний за миттєву верифікацію подій та оцінку стану реального світу.
Семантичний рівень істини: ДОВІРА / Інтуїція, відповідальний за соціальний консенсус, оцінку репутації та довгострокові факти
Рівень розрахунків: L1/L2 блокчейн, що забезпечує незмінні записи та економічні стимули.
Ця структура, ймовірно, стане справжньою основою AI × Web3. Без Оракул-машини AI Агент не зможе перевірити правдивість, оцінити джерело, уникнути шахрайства, запобігти забрудненню даних, здійснювати високоризикові дії та перевіряти інформацію, як людина. Без неї економіка Агентів не може існувати; але з нею ми вперше можемо створити для AI перевірний рівень реальності.
Майбутня оракул-машина не буде мережею вузлів, а складатиметься з безлічі професійних агентів: вони накопичують репутацію через доходи, беруть участь у верифікації через репутацію, отримують нові роботи та виклики через верифікацію, автоматично співпрацюють, автоматично розподіляють обов'язки, самостійно еволюціонують, і врешті-решт розширюються до всіх сфер знань. Це буде справжній ринковий механізм соціуму машин.
Блокчейн надав нам надійну книгу обліку, а епоха AI Agent вимагає надійної реальності, надійних подій, надійної семантики, надійних суджень, надійного виконання. Агент Оракул = реальна основа AI. Майбутнє належить тим, хто може допомогти машинам зрозуміти реальний світ.