У сфері розробки DeFi, ігор на блокчейні та Web3-додатків постійно виникає одна й та сама проблема, яка засмучує безліч інженерів — якість даних. Дані надходять занадто повільно, підробляються, їх вартість занадто висока… Навіть найрозумніші смарт-контракти не витримують потоку сміттєвої інформації. Ця перешкода зупиняє розвиток усього індустрії.
Перед нами стоїть ключове питання: як зробити так, щоб блокчейн-система надійно отримувала та перевіряла інформацію з реального світу? Це питання не лише технологічне, а й питання довіри.
Команда APRO має досить репрезентативний склад — інженери, дата-сайентисти, представники великих компаній і досвідчені фахівці у криптосфері. Їхній консенсус дуже простий: без надійного рівня даних неможливо говорити про децентралізоване майбутнє. Вони ретельно досліджували, чому попередні оракули зазнавали труднощів — їх легко атакувати, відповіді затримуються, механізми стимулювання неправильно налаштовані. У періоди обмежених ресурсів і повільного прогресу вони поступово сформували характер проекту: стабільність і обережність у кожному кроці, ретельна перевірка кожного етапу, особлива увага до слова "довіра".
Перший продукт був далекий від ідеалу. На початку його функціонал був простим — він міг обробляти лише цінові дані і часто давав збої. Дані з поза блокчейну не співпадали з внутрішніми даними, вартість перевірки була неймовірно високою, затримки тривалий час турбували команду. Але вони не ухилялися від проблем, а навпаки — йшли назустріч викликам. Вони експериментували з поєднанням обчислень поза блокчейном і верифікації всередині нього, поступово розробили дві системи — "передача даних" і "завантаження даних" — перша орієнтована на швидкість, друга — на точність. Іронія полягає в тому, що ця, здавалося б, "неідеальна" гнучкість стала їхньою ключовою конкурентною перевагою.
У процесі технічних ітерацій команда зрозуміла, що лише математика і криптографія недостатні. Вони впровадили механізм верифікації на основі штучного інтелекту — не для хайпу, а щоб створити багаторівневий захист у мережі. Моделі AI здатні в реальному часі виявляти аномальні дані, перехресно перевіряти кілька джерел, значно підвищуючи стійкість системи.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
19 лайків
Нагородити
19
8
Репост
Поділіться
Прокоментувати
0/400
MerkleTreeHugger
· 01-05 20:42
Це дійсно довго блокувало сферу оракулів, ідея APRO досить непогана, гібридний підхід має свій інтерес.
Переглянути оригіналвідповісти на0
ser_ngmi
· 01-05 16:38
Кажуть, що потрібно вирішувати проблеми з даними, але справжніх сміливців перевірити кожну деталь з нуля небагато, а механізм APRO з цієї гібридної системи досить практичний.
Переглянути оригіналвідповісти на0
SingleForYears
· 01-03 03:51
Дані підробки — це справжня ахіллесова п’ята оракула, і ця хвиля "нечистих" ідей APRO навпаки врятувала їх
---
Чесно кажучи, рішення з ланцюгом поза ланцюгом виглядає не дуже елегантно, але якщо воно дійсно працює — це головне
---
Ще один, хто підтягує AI? Але їхня логіка здається досить міцною, я підтримую ідею багаторівневого захисту
---
Все ж таки потрібно покладатися на командний досвід, поєднання великої компанії та досвідченого криптофахівця дійсно відрізняється
---
Зачекайте, якщо вартість верифікації така висока… як вони потім вирішили цю проблему? Не пояснили чітко
---
Спокійна і стабільна стратегія здається скромною, але саме вона є найбільшим проявом довіри
---
Оракули вже стільки років заповнюють цю яму, якщо APRO справді працює — вони давно вже мали б стати популярними
---
Переглянути оригіналвідповісти на0
GateUser-1a2ed0b9
· 01-03 03:51
Прогнозний "криза довіри" нарешті хтось хоче серйозно вирішити, а не просто грубо навантажувати функції
---
І з AI, і з гібридною верифікацією, якщо ця комбінація справді працюватиме, варто звернути увагу, інакше знову буде ідеологічна спекуляція
---
Якість даних дійсно є ахіллесовою п’ятою Web3, подивимося, як APRO прорвеся
---
Мені подобається цей підхід "спокійно і стабільно", він набагато надійніший за ті проекти, що хваляться неймовірними можливостями
---
Проблема невідповідності між оффчейн і ончейн даними вразила, кілька використаних раніше прогнозних орієнтерів мають цю проблему
---
Гнучкість > чистота, ця зміна у свідомості дуже важлива, багато команд застрягли у гонитві за "ідеальною архітектурою"
Переглянути оригіналвідповісти на0
SnapshotDayLaborer
· 01-03 03:47
Даніовий рівень — це справжній вузол у горлі, лише займатися смарт-контрактами безглуздо
---
Чи зможе заповнити цю яму з орієнтацією на оракули? Мені важко в це повірити, у минулому всі провалювалися
---
Змішаний підхід насправді має переваги, чистий ідеалізм у Web3 давно має збанкрутувати
---
Я вірю, що підтвердження AI — це не просто хайп, воно дійсно корисне
---
Найбільше страшить підробка даних, цей бар’єр дійсно важкий
---
Розмірено і стабільно — рідкість, більшість проектів прагнуть одразу до успіху
---
Проблема невідповідності між оффлайн і онлайн даними вже стосується багато років і досі не вирішена
Переглянути оригіналвідповісти на0
Ser_APY_2000
· 01-03 03:44
Дані фальсифікації дійсно є хронічною проблемою, по суті це garbage in garbage out, навіть найкращий контракт не врятує
---
Прогнозні механізми вже стільки років намагаються, основна проблема — неправильний дизайн стимулів, рівень довіри справді обмежений
---
Змішаний підхід звучить не зовсім чисто, але це реальність... іноді pragma краще за pragmatic
---
Я трохи хвилююся щодо верифікації AI, чи не стане вартість запуску моделей на ланцюгу знову пасткою
---
Команда APRO сформована непогано, головне — чи зможуть якість джерел даних триматися в майбутньому
---
Спокійна і стабільна робота здається повільною, але це набагато краще, ніж ті, що хваляться і в кінці кінців зриваються
---
Чесно кажучи, зараз у Web3 не вистачає саме таких проектів, які не поспішають з фінансуванням і серйозно займаються інфраструктурою
Переглянути оригіналвідповісти на0
DuskSurfer
· 01-03 03:39
Рівень даних дійсно ускладнює ситуацію, але я все ще підтримую підхід APRO, ця гібридна схема є більш практичною. У порівнянні з тими проектами, які намагаються зробити чистий продукт, така гнучка ітерація є більш надійною.
Переглянути оригіналвідповісти на0
TokenomicsTinfoilHat
· 01-03 03:28
Оракул цей яма занадто глибока, проблема якості даних справді є верхньою межею. Ідея APRO хороша, гібридне рішення більш практичне ніж ті, що хваляться "чистотою".
Перші провали — це нормально, важливо, чи команда зможе витримати ітерації, ця команда здається досвідченою.
Механізм стимулювання — це справжнє ядро, навіть ідеальна математична модель не витримає людської природи.
Як повністю запобігти підробці даних? Багато проектів вже зазнали цього.
До речі, чи справді працює ця система AI-верифікації? Чи знову чергова хвиля хайпу навколо концепції?
Здається, саме цього не вистачає Web3 — потрібно покращити інфраструктуру, щоб по-справжньому грати.
У сфері розробки DeFi, ігор на блокчейні та Web3-додатків постійно виникає одна й та сама проблема, яка засмучує безліч інженерів — якість даних. Дані надходять занадто повільно, підробляються, їх вартість занадто висока… Навіть найрозумніші смарт-контракти не витримують потоку сміттєвої інформації. Ця перешкода зупиняє розвиток усього індустрії.
Перед нами стоїть ключове питання: як зробити так, щоб блокчейн-система надійно отримувала та перевіряла інформацію з реального світу? Це питання не лише технологічне, а й питання довіри.
Команда APRO має досить репрезентативний склад — інженери, дата-сайентисти, представники великих компаній і досвідчені фахівці у криптосфері. Їхній консенсус дуже простий: без надійного рівня даних неможливо говорити про децентралізоване майбутнє. Вони ретельно досліджували, чому попередні оракули зазнавали труднощів — їх легко атакувати, відповіді затримуються, механізми стимулювання неправильно налаштовані. У періоди обмежених ресурсів і повільного прогресу вони поступово сформували характер проекту: стабільність і обережність у кожному кроці, ретельна перевірка кожного етапу, особлива увага до слова "довіра".
Перший продукт був далекий від ідеалу. На початку його функціонал був простим — він міг обробляти лише цінові дані і часто давав збої. Дані з поза блокчейну не співпадали з внутрішніми даними, вартість перевірки була неймовірно високою, затримки тривалий час турбували команду. Але вони не ухилялися від проблем, а навпаки — йшли назустріч викликам. Вони експериментували з поєднанням обчислень поза блокчейном і верифікації всередині нього, поступово розробили дві системи — "передача даних" і "завантаження даних" — перша орієнтована на швидкість, друга — на точність. Іронія полягає в тому, що ця, здавалося б, "неідеальна" гнучкість стала їхньою ключовою конкурентною перевагою.
У процесі технічних ітерацій команда зрозуміла, що лише математика і криптографія недостатні. Вони впровадили механізм верифікації на основі штучного інтелекту — не для хайпу, а щоб створити багаторівневий захист у мережі. Моделі AI здатні в реальному часі виявляти аномальні дані, перехресно перевіряти кілька джерел, значно підвищуючи стійкість системи.