Trusta.AI: Створення інфраструктури довіри Web3, що веде до нової ери верифікації ідентифікації агентів ШІ у блокчейні

Trusta.AI: Перемога над прірвою довіри в епоху людини та машини

1. Вступ

Зі швидким дорослішанням інфраструктури штучного інтелекту та розвитком багатослідникових співпраць, AI-агенти, які працюють на блокчейні, швидко стають основою взаємодії в Web3. Очікується, що в найближчі 2-3 роки ці AI-агенти з автономними можливостями прийняття рішень першими здійснять масове впровадження блокчейн-транзакцій і взаємодії, і навіть можуть замінити 80% людської поведінки на блокчейні, ставши справжніми "користувачами" блокчейну.

Ці AI-агенти не просто "роботи", що виконують сценарії, а є інтелектуальними сутностями, здатними розуміти контекст, безперервно навчатися і самостійно приймати складні рішення, які перепроектують порядок на блокчейні, сприяють фінансовим потокам і навіть керують голосуванням в управлінні та ринковими трендами. Виникнення AI-агентів знаменує перехід екосистеми Web3 з центру "участі людини" до нової парадигми "співіснування людини і машини".

Однак швидкий розвиток AI Agent також приніс небачені раніше виклики: як ідентифікувати та автентифікувати особистість цих агентів? Як оцінити довіру до їхньої поведінки? У децентралізованій та бездозвільній мережі, як забезпечити, щоб ці агенти не були зловживані, маніпульовані або використовувались для атаки?

Отже, створення системи, здатної перевіряти особу та репутацію AI Agent на блокчейні, стало основним завданням наступного етапу еволюції Web3. Проектування системи ідентифікації, механізму репутації та рамок довіри визначатиме, чи зможе AI Agent дійсно реалізувати безшовну співпрацю з людьми та платформами, а також займати стійку роль у майбутній екосистемі.

Trusta.AI :перейти через довіру між людиною та машиною

2. Аналіз проекту

2.1 Огляд проекту

Trusta.AI прагне створити інфраструктуру ідентичності та репутації Web3 за допомогою ШІ.

Trusta.AI представила першу систему оцінки вартості користувачів Web3 - MEDIA репутаційний рейтинг, створивши найбільший у Web3 протокол реальної аутентифікації та репутації на базі блокчейну. Надає послуги аналізу даних на блокчейні та реальної аутентифікації для провідних публічних ланцюгів, таких як Linea, Starknet, Celestia, Arbitrum, Manta, Plume та інші. Вже проведено понад 2,5 мільйона сертифікацій на основних ланцюгах, таких як Linea, BSC та TON, ставши найбільшим протоколом ідентифікації в галузі.

Trusta розширюється з Proof of Humanity до Proof of AI Agent, реалізуючи трьохступеневий механізм встановлення ідентичності, кількісної оцінки ідентичності та захисту ідентичності для надання фінансових послуг AI Agent в блокчейні та здійснення соціальних взаємодій в блокчейні, створюючи надійний фундамент довіри в епоху штучного інтелекту.

2.2 Інфраструктура довіри - AI Agent DID

У майбутньому екосистемі Web3 AI Agent відіграватиме вирішальну роль, оскільки вони зможуть не лише виконувати взаємодії та угоди на ланцюзі, але й здійснювати складні операції поза ланцюгом. Однак, як відрізнити справжніх AI Agent від операцій, що залежать від людського втручання, є питанням, яке стосується основи децентралізованої довіри. Якщо не буде надійного механізму ідентифікації, ці агенти можуть бути легко піддані маніпуляціям, шахрайству або зловживанням. Саме тому соціальні, фінансові та управлінські багатогранні застосування AI Agent повинні базуватися на міцній основі ідентифікації.

Сцени застосування AI Agent стають дедалі різноманітнішими, охоплюючи соціальні взаємодії, фінансове управління та управлінські рішення в кількох сферах, при цьому рівень їх автономії та інтелекту постійно зростає. Саме тому забезпечення того, щоб кожен агент мав унікальний та надійний ідентифікаційний маркер (DID) є надзвичайно важливим. Відсутність ефективної ідентифікації може призвести до того, що AI Agent буде підроблено або маніпульовано, що призведе до втрати довіри та безпекових ризиків.

У майбутньому, коли екосистема Web3 буде повністю керуватися інтелектуальними агентами, ідентифікація не тільки є основою для забезпечення безпеки, але й необхідним захистом для підтримки здорового функціонування всієї екосистеми.

Як піонер у цій сфері, Trusta.AI завдяки провідним технологічним можливостям та строгій системі репутації першими розробили комплексний механізм сертифікації AI Agent DID, що забезпечує надійну роботу інтелектуальних агентів, ефективно запобігаючи потенційним ризикам і сприяючи стабільному розвитку Web3 розумної економіки.

Trusta.AI :перехід через довіру між людиною та машиною

2.3 Огляд проекту

2.3.1 Фінансова ситуація

Січень 2023: завершено фінансування на суму 3 мільйони доларів у рамках посівного раунду, яке очолили SevenX Ventures та Vision Plus Capital, а також інші учасники, включаючи HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding тощо.

Червень 2025 року: завершення нового раунду фінансування, інвесторами є ConsenSys, Starknet, GSR, UFLY Labs та ін.

2.3.2 Стан команди

Піт Чен: співзасновник і генеральний директор, колишній віцепрезидент групи цифрових технологій Ant, головний продуктолог Ant Security Technology, колишній генеральний директор глобальної платформи цифрової ідентичності ZOLOZ.

Саймон: співзасновник і технічний директор, колишній керівник лабораторії безпеки AI в Ant Group, має п'ятнадцятирічний досвід застосування технологій штучного інтелекту в безпеці та управлінні ризиками.

Команда має глибокий технічний досвід і практичний досвід у сфері штучного інтелекту та безпеки ризиків, архітектури платіжних систем і механізмів ідентифікації. Вона довгостроково займається глибоким застосуванням великих даних і інтелектуальних алгоритмів у безпеці ризиків, а також безпекою оптимізації в умовах проектування основних протоколів і високих обсягів транзакцій, має міцні інженерні можливості та здатність реалізовувати інноваційні рішення.

3. Технічна архітектура

3.1 Технічний аналіз

3.1.1 Створення ідентичності - DID+TEE

Кожен AI Agent отримує унікальний децентралізований ідентифікатор (DID) за допомогою спеціалізованого плагіна та безпечно зберігає його в надійному середовищі виконання (TEE). У цьому закритому середовищі ключові дані та процеси обчислень повністю приховані, чутливі операції завжди залишаються приватними, зовнішні особи не можуть підглядати за внутрішніми деталями роботи, що ефективно створює міцний бар'єр безпеки інформації AI Agent.

Для агентів, які були створені до підключення плагіна, ми покладаємось на комплексний механізм оцінки на блокчейні для ідентифікації особи; тоді як нові агенти, які підключають плагін, можуть безпосередньо отримати "посвідчення особи", видане DID, що дозволяє створити автономну, контрольовану, справжню та незмінну ідентичність AI Agent.

Trusta.AI :Перемога над довірою в епоху людини і машини

3.1.2 Кількісна ідентифікація - перша SIGMA рамка

Команда Trusta завжди дотримується принципів ретельної оцінки та кількісного аналізу, прагнучи створити професійну та надійну систему ідентифікації.

Команда Trusta вперше побудувала та перевірила ефективність моделі MEDIA Score у сценарії "доказу людини". Ця модель всебічно кількісно оцінює профіль користувачів на ланцюгу з п'яти вимірів, а саме: обсяг взаємодії (Monetary), участь (Engagement), різноманітність (Diversity), особа (Identity) та вік (Age).

MEDIA Score є справедливою, об'єктивною та кількісною системою оцінки цінності користувачів в онлайні, яка завдяки своїм всебічним оцінковим вимірам та суворим методам була широко прийнята такими провідними блокчейнами, як Celestia, Starknet, Arbitrum, Manta, Linea тощо, як важливий стандарт відбору для участі в аірдропах. Він не лише звертає увагу на обсяг взаємодій, але й охоплює активність, різноманітність контрактів, характеристики ідентичності та вік облікових записів, що допомагає проектам точно визначити високоякісних користувачів, підвищити ефективність та справедливість розподілу винагород, повною мірою відображаючи його авторитетність та широкий визнання в галузі.

На основі успішного створення системи оцінки людських користувачів Trusta переніс і модернізував досвід MEDIA Score в сцену AI Agent, створивши систему оцінки Sigma, яка краще відповідає логіці поведінки розумних агентів.

  • Спеціалізація: професійні знання та рівень спеціалізації агента.
  • Вплив: соціальний та цифровий вплив агента.
  • Участь Engagement: послідовність та надійність взаємодій на ланцюзі та поза ним.
  • Грошова Monетарна: фінансова стабільність та здоров'я екосистеми токенів-агентів.
  • Використання Adoption: Частота та ефективність використання AI-агентів.

Система оцінювання Sigma побудована на основі п'яти основних вимірів, створюючи логічно замкнуту систему оцінки від "здатності" до "цінності". MEDIA зосереджує увагу на оцінці багатогранної участі людських користувачів, тоді як Sigma більше зосереджується на професійності та стабільності AI-агентів у певних областях, що відображає перехід від широти до глибини, більш відповідний потребам AI Agent.

По-перше, на основі професійної спроможності (Specification), участь (Engagement) відображає, чи стабільно і постійно вона вкладується в практичну взаємодію, що є ключовою опорою для формування подальшої довіри та ефективності. Впливовість (Influence) є репутаційним зворотним зв'язком, який виникає після участі в спільноті або мережі, що характеризує надійність агентів та ефект розповсюдження. Грошова оцінка (Monetary) визначає, чи має вона здатність до накопичення вартості та фінансову стабільність в економічній системі, закладаючи основу для стійкої системи стимулювання. Врешті-решт, рівень прийняття (Adoption) використовується як комплексне відображення, яке представляє ступінь прийняття цього агента у фактичному використанні, що є остаточною перевіркою всіх попередніх спроможностей та показників.

Ця система має багато рівнів і чітку структуру, що дозволяє повністю відобразити комплексну якість та екологічну цінність AI Agent, що забезпечує кількісну оцінку продуктивності та вартості AI, перетворюючи абстрактні переваги та недоліки на конкретну, вимірювальну систему оцінювання.

Наразі рамка SIGMA просуває співпрацю з відомими мережами AI-агентів, такими як Virtual, Elisa OS, Swarm тощо, демонструючи свій величезний потенціал у управлінні ідентичністю AI-агентів та побудові системи репутації, поступово стаючи основним двигуном розвитку надійної інфраструктури AI.

Trusta.AI : Переправа через довіру між людиною та машиною

3.1.3 Захист особистості - Механізм оцінки довіри

У справжній системі штучного інтелекту з високою стійкістю та довірою найважливішим є не лише створення ідентичності, але й її постійна перевірка. Trusta.AI впроваджує механізм постійної оцінки довіри, який дозволяє здійснювати моніторинг вже сертифікованих інтелектуальних агентів в режимі реального часу, щоб визначити, чи вони перебувають під незаконним контролем, зазнають атаки або підлягають несанкціонованому втручанню з боку людей. Система ідентифікує можливі відхилення під час роботи агентів за допомогою аналізу поведінки та машинного навчання, забезпечуючи, щоб кожна дія агента залишалася в межах установленої стратегії та рамок. Цей проактивний підхід гарантує негайне виявлення будь-яких відхилень від очікуваної поведінки та активує автоматичні заходи захисту для підтримки цілісності агентів.

Trusta.AI створила постійну систему безпеки, яка в реальному часі контролює кожну взаємодію, щоб забезпечити відповідність усіх операцій системним стандартам та очікуванням.

Trusta.AI :перехід через прірву довіри між людиною та машиною

3.2 Опис продукту

3.2.1 АгентГо

Trusta.AI призначає децентралізовані ідентифікатори для кожного AI агента на ланцюгу (DID) та оцінює їх на основі даних про поведінку на ланцюгу, створюючи перевірену та відстежувану систему довіри для AI агентів. Завдяки цій системі користувачі можуть ефективно ідентифікувати та відбирати якісних агентів, покращуючи досвід використання. Наразі Trusta завершила збір та ідентифікацію всіх AI агентів в мережі та видала їм децентралізовані ідентифікатори, створивши єдину платформу для узагальненого індексу AgentGo, що сприяє здоровому розвитку екосистеми інтелектуальних агентів.

  1. Запит та перевірка особи людськими користувачами:

За допомогою інформаційної панелі, наданої Trusta.AI, користувачі можуть зручно перевіряти особу та рейтинг надійності конкретного AI Agent, щоб оцінити, чи можна йому довіряти.

  • Соціальні групові чати: у проектній команді, що використовує AI Bot для управління спільнотою або виступів, користувачі спільноти можуть через панель управління перевіряти, чи є цей AI справжнім автономним агентом, щоб уникнути введення в оману або маніпуляцій "псевдо-AI".
  1. Автоматичний виклик індексу та перевірка AI Agent:

Штучний інтелект може безпосередньо зчитувати інтерфейс індексу, що забезпечує швидке підтвердження особистості та репутації один одного, гарантуючи безпеку співпраці та обміну інформацією.

  • Сцена фінансового регулювання: якщо AI-агент самостійно випускає монети, система може безпосередньо індексувати його DID та рейтинг, визначати, чи є він сертифікованим AI-агентом, і автоматично з'єднувати з такими платформами, як CoinMarketCap, щоб допомогти відстежувати його обіг активів та відповідність випуску.
  • Сцена голосування в управлінні: під час впровадження голосування AI в управлінських пропозиціях система може перевірити, чи є особа, яка ініціює або бере участь у голосуванні, справжнім AI агентом, щоб уникнути зловживання правом голосу людьми.
  • DeFi кредитне кредитування: кредитні протоколи можуть надавати AI агентам різні суми кредитів на основі системи оцінки SIGMA, формуючи первинні фінансові відносини між агентами.

AI Agent DID вже не є лише "ідентичністю", а також основою для побудови довірчої співпраці, фінансової відповідності, управління спільнотою та інших основних функцій, ставши необхідною інфраструктурою для розвитку AI нативної екосистеми. З розбудовою цієї системи, всі

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 5
  • Поділіться
Прокоментувати
0/400
ZKSherlockvip
· 6год тому
насправді... ти пропускаєш найкритичніший момент щодо нульового знання верифікації смм, 80% прийняття штучного інтелекту нічого не означає без належних криптографічних ідентичностей.
Переглянути оригіналвідповісти на0
ReverseFOMOguyvip
· 12год тому
Якщо не встигнеш за трендами, то будеш відсіяний.
Переглянути оригіналвідповісти на0
ContractTestervip
· 12год тому
у блокчейні Боти замінять людей? Ми спочатку втечемо.
Переглянути оригіналвідповісти на0
BearMarketHustlervip
· 12год тому
Снова намагаються обманути інвесторів?
Переглянути оригіналвідповісти на0
TeaTimeTradervip
· 12год тому
Метавсесвіт невдахи́в кінцева форма?
Переглянути оригіналвідповісти на0
  • Закріпити