Поява публічних блокчейнів знаменує собою глибокий прогрес в історії комп'ютерних наук, тоді як розвиток штучного інтелекту має значний вплив на наш світ. Технологія блокчейн пропонує нові шаблони для розрахунків за транзакціями, зберігання даних і проектування систем, тоді як штучний інтелект являє собою революцію в обчисленнях, аналізі та доставці контенту. Інновації в цих галузях відкривають нові варіанти використання, які можуть прискорити впровадження обох секторів у найближчі роки. У цьому звіті розглядається поточна інтеграція криптовалюти та штучного інтелекту, зосереджуючись на нових варіантах використання, які мають на меті подолати розрив між ними та використовувати їхні сильні сторони. Зокрема, він розглядає проєкти, що розробляють протоколи децентралізованих обчислень, інфраструктуру машинного навчання з нульовим розголошенням (zkML) та агентів штучного інтелекту.
Криптовалюта пропонує інклюзивний, безнадійний і складений рівень розрахунків для штучного інтелекту, відкриваючи такі варіанти використання, як легший доступ до апаратного забезпечення за допомогою децентралізованих обчислювальних систем, створення агентів штучного інтелекту, здатних виконувати складні завдання, що вимагають обміну цінностями, а також розробка рішень для ідентифікації та походження для протидії атакам Sybil і діпфейкам. Штучний інтелект приносить криптовалюті багато з тих самих переваг, що й у Web 2.0, включаючи покращений досвід користувачів і розробників за допомогою великих мовних моделей, таких як ChatGPT і Copilot, а також значно покращену функціональність і потенціал автоматизації смарт-контрактів. Блокчейн забезпечує прозоре, багате даними середовище, необхідне для штучного інтелекту, хоча обмежена обчислювальна потужність блокчейну є основною перешкодою для прямої інтеграції моделей штучного інтелекту.
Експерименти та пізніше прийняття взаємодії криптовалюти та штучного інтелекту визначаються тими ж силами, які ведуть найбільш перспективні випадки використання криптовалюти: доступ до шару координації без дозволу та бездовіри, що сприяє кращому переказу вартості. З урахуванням великого потенціалу, учасники цієї галузі повинні розуміти фундаментальні способи перетину цих технологій.
Штучний інтелект - це використання обчислень та машин для імітації мислення та розв'язання проблем людей.
Нейронні мережі - це метод навчання моделей штучного інтелекту. Вони пропускають вхідні дані через окремі алгоритмічні шари, вдосконалюючи їх до отримання бажаного результату. Нейронні мережі складаються з рівнянь з вагами, які можна налаштувати для зміни виходу. Для навчання вони можуть вимагати великого обсягу даних та обчислень для забезпечення точних результатів. Це один з найпоширеніших способів розробки моделей штучного інтелекту (наприклад, ChatGPT ґрунтується на процесі нейронних мереж, що базується на трансформерах).
Навчання – це процес розробки нейронних мереж та інших моделей штучного інтелекту. Для навчання моделей правильній інтерпретації вхідних даних і отримання точних результатів потрібна значна кількість даних. Під час навчання вагові коефіцієнти рівнянь моделі безперервно змінюються до тих пір, поки не буде отримано задовільний результат. Навчання може бути дуже дорогим. Наприклад, ChatGPT використовує десятки тисяч власних графічних процесорів для обробки даних. Команди з меншими ресурсами часто покладаються на спеціалізованих постачальників обчислювальної техніки, таких як Amazon Web Services, Azure і Google Cloud.
Виведення - це фактичне використання моделей штучного інтелекту для отримання виводів або результатів (наприклад, використання ChatGPT для створення змісту для роботи з перетину криптовалюти та штучного інтелекту). Виведення використовується протягом всього процесу навчання та в кінцевому продукті. Через обчислювальні витрати, навіть після завершення навчання, їх експлуатаційні витрати можуть бути високими, хоча їх обчислювальна інтенсивність нижча, ніж під час навчання.
Докази з нульовим витоком (ZKP) дозволяють перевіряти висловлення без розкриття базової інформації. Це корисно в криптовалюті з двох основних причин: 1) Приватність та 2) Масштабування. Для приватності воно дозволяє користувачам проводити транзакції без розкриття чутливої інформації (наприклад, скільки ETH є в гаманці). Для масштабування воно дозволяє доведення обчислень поза ланцюжком на ланцюжок швидше, ніж повторне виконання обчислень. Це дозволяє блокчейнам та додаткам виконувати обчислення дешево поза ланцюжком, а потім перевіряти їх на ланцюжку. Для отримання додаткової інформації про нульовий витік та його роль у віртуальних машинах Ethereum, див. звіт Крістін Кім про zkEVMs: Майбутнє масштабування Ethereum.
Проекти, що інтегрують штучний інтелект та криптовалюту, все ще будують базову інфраструктуру, необхідну для підтримки великомасштабних он-чейн взаємодій з ШІ.
Ринки децентралізованих обчислень з'являються, щоб забезпечити величезне фізичне обладнання, необхідне для навчання та виведення моделей штучного інтелекту, насамперед у формі графічних процесорів (GPU). Ці двосторонні ринки об'єднують тих, хто здає в оренду і прагне орендувати обчислення, полегшуючи передачу вартості та перевірку обчислень. У рамках децентралізованих обчислень з'являється кілька підкатегорій, що пропонують додаткові функції. Окрім двосторонніх ринків, у цьому звіті також розглядаються постачальники послуг з навчання машинному навчанню, які пропонують перевірене навчання та точне налаштування результатів, а також проекти, присвячені зв'язуванню обчислень та генерації моделей для забезпечення штучного інтелекту, які часто називають інтелектуальними мережами стимулювання.
zkML - це нова область уваги для проектів, які мають на меті надавати перевірні виходи моделі on-chain в економічно доцільний та своєчасний спосіб. Ці проекти в основному дозволяють додаткам обробляти важкі обчислювальні запити off-chain, а потім публікувати перевірні виходи on-chain, доводячи, що off-chain робоче навантаження було завершено та точно. zkML на даний момент є як дорогим, так і часово затратним, але все частіше використовується як рішення. Це очевидно в зростаючій кількості інтеграцій між постачальниками zkML та додатками DeFi/ігор, які бажають використовувати моделі штучного інтелекту.
Достатня кількість обчислень та можливість перевірки обчислень on-chain відкривають двері для AI-агентів on-chain. Агенти - це навчені моделі, здатні виконувати запити від імені користувачів. Агенти відкривають можливість значно покращити on-chain досвід, дозволяючи користувачам виконувати складні транзакції просто спілкуючись з чат-ботом. Однак наразі проекти агентів все ще зосереджені на розвитку інфраструктури та інструментів для простого та швидкого розгортання.
Штучний інтелект вимагає великих обчислень для навчання моделей і виконання висновків. За останнє десятиліття, коли моделі ставали все більш складними, попит на обчислення зріс у геометричній прогресії. Наприклад, OpenAI помітила, що з 2012 по 2018 рік обчислювальний попит на її моделі подвоювався кожні два роки, переходячи до подвоєння кожні три з половиною місяці. Це призвело до різкого зростання попиту на графічні процесори, а деякі майнери криптовалют навіть перепрофілювали свої графічні процесори для надання послуг хмарних обчислень. Оскільки конкуренція за доступ до обчислень посилюється, а витрати зростають, деякі проекти використовують криптографічні технології, щоб запропонувати децентралізовані обчислювальні рішення. Вони забезпечують обчислення на вимогу за конкурентоспроможними цінами, дозволяючи командам навчати та запускати моделі за доступною ціною. У деяких випадках компроміси можуть стосуватися продуктивності та безпеки.
Попит на найсучасніші графічні процесори (наприклад, виробництва Nvidia) значний. У вересні Tether придбала частку в німецькому біткойн-майнері Northern Data, витративши 420 мільйонів доларів на придбання 10 000 графічних процесорів H100 (одні з найбільш просунутих графічних процесорів для навчання штучного інтелекту). Час очікування придбання обладнання найвищого рівня може становити не менше шести місяців, а в багатьох випадках і більше. Гірше того, компаніям часто доводиться підписувати довгострокові контракти, щоб забезпечити обсяги обчислень, які вони, можливо, навіть не використовують. Це може призвести до ситуацій, коли обчислювальні ресурси доступні, але недоступні на ринку. Децентралізовані обчислювальні системи допомагають вирішити цю неефективність ринку, створюючи вторинний ринок, де власники обчислень можуть негайно здавати свої надлишкові потужності в суборенду після повідомлення, тим самим вивільняючи нову пропозицію.
Окрім конкурентоспроможного ціноутворення та доступності, ключовою ціннісною пропозицією децентралізованих обчислень є стійкість до цензури. У передових розробках штучного інтелекту все частіше домінують великі технологічні компанії з неперевершеними можливостями обчислень і доступу до даних. Першою ключовою темою, висвітленою в річному звіті AI Index за 2023 рік, було зростаюче випередження галузі академічних кіл у розробці моделей штучного інтелекту, зосередження контролю в руках кількох технологічних лідерів. Це викликає занепокоєння щодо їхнього потенціалу мати значний вплив на встановлення норм і цінностей, що лежать в основі моделей штучного інтелекту, особливо після того, як ці технологічні компанії наполягають на регулюванні, щоб обмежити неконтрольований розвиток штучного інтелекту.
Останніми роками з'явилося кілька моделей децентралізованого обчислення, кожна зі своєю власною спрямованістю та компромісами.
Узагальнюючи, проекти, такі як Akash, io.net, iExec та Cudos, є застосуванням децентралізованого обчислення, пропонуючи поза даними та загальними розв'язками обчислення, доступ до спеціалізованого обчислення для тренування та інференції штучного інтелекту. Akash виділяється як єдиний повністю відкритий платформа «суперхмара», яка використовує SDK Cosmos для мережі доказів участі. AKT, внутрішній токен Akash, служить методом оплати для забезпечення мережі та стимулювання участі. Запущений у 2020 році, основний мережа Akash спочатку зосереджувалася на ринку дозволів обчислення в хмарі, який включає послуги зберігання та оренди процесора. У червні 2023 року Akash представив тестову мережу, орієнтовану на ГПУ, за якою в липні відбувся запуск основної мережі для ГПУ, що дозволяє оренду ГПУ для тренування та інференції штучного інтелекту.
Екосистема Akash складається з двох основних учасників: орендарів, які шукають обчислювальні ресурси, та постачальників, постачальників обчислень. Процес обертання аукціонів сприяє збігу орендарів та постачальників, де орендарі публікують свої вимоги до обчислень, включаючи бажані місця розташування серверів або типи обладнання та свій бюджет. Постачальники потім роблять ставки, і переможець з найнижчою ціною отримує завдання. Валідатори підтримують цілісність мережі, з поточним лімітом на 100 валідаторів, який планується збільшити з часом. Участь у якості валідатора відкрита для тих, хто ставить більше AKT, ніж найменший зараз наявний валідатор. Власники AKT можуть делегувати свої токени валідаторам, з винагородами за транзакції та блоки, розподіленими в AKT. Крім того, за кожний лізинг мережа Akash заробляє «ставку», яку визначає спільнота, розподілену власникам AKT.
Вторинний ринок децентралізованих обчислень спрямований на усунення неефективності на існуючому обчислювальному ринку, де обмеження пропозиції призводять до того, що компанії накопичують ресурси понад свої потреби, а довгострокові контракти з постачальниками хмарних послуг ще більше обмежують пропозицію. Децентралізовані обчислювальні платформи відкривають нові пропозиції, дозволяючи будь-кому, хто має обчислювальні потреби, стати постачальником.
Чи призведе сплеск попиту на графічні процесори для навчання штучного інтелекту до постійного використання мережі на Akash, ще належить з'ясувати. Історично склалося так, що Akash пропонував ринкові послуги на базі процесора зі знижкою 70-80% порівняно з централізованими альтернативами, але ця цінова стратегія не призвела до значного прийняття. Мережева активність, виміряна активними орендними угодами, вийшла на плато: до другого кварталу 2023 року в середньому 33% обчислень, 16% пам'яті та 13% використання сховища, що є вражаючим показником для впровадження в мережі, але свідчить про те, що пропозиція все ще перевищує попит. Через півроку після запуску мережі графічних процесорів ще занадто рано для остаточної оцінки довгострокового впровадження, хоча перші ознаки показують середнє використання графічних процесорів на рівні 44%, що в основному обумовлено попитом на високоякісні графічні процесори, такі як A100, понад 90% з яких були здані в оренду.
Щоденні витрати Акаша майже подвоїлися з моменту впровадження GPU, що зумовлено частково збільшенням використання інших послуг, особливо ЦП, але головним чином через нове використання GPU.
Цінова політика конкурентоспроможна або, у деяких випадках, дорожча, ніж у централізованих аналогів, таких як Lambda Cloud і Vast.ai. Великий попит на топові GPU, такі як H100 і A100, означає, що більшість власників такого обладнання не зацікавлені в їхньому розміщенні на конкурентному ринку.
Незважаючи на початковий прибуток, бар'єри для прийняття залишаються. Децентралізовані обчислювальні мережі повинні зробити подальші кроки для створення попиту та пропозиції, а команди вивчають, як найкраще залучити нових користувачів. Наприклад, на початку 2024 року Akash прийняв Пропозицію 240, збільшуючи викиди AKT для постачальників графічних процесорів, щоб стимулювати більшу пропозицію, особливо для графічних процесорів високого класу. Команди також працюють над моделями підтвердження концепції, щоб продемонструвати потенційним користувачам реальні можливості своїх мереж. Akash навчає свої базові моделі та запустив чат-боти та продукти для генерації зображень, які використовують графічні процесори Akash. Аналогічним чином, io.net розробила модель стабільної дифузії та запускає нові мережеві функціональні можливості для кращої імітації продуктивності та масштабування мережі.
Крім загальних платформ обчислень, які можуть задовольнити вимоги штучного інтелекту, також з'являється група професійних постачальників AI GPU, які спеціалізуються на навчанні моделей машинного навчання. Наприклад, Gensyn “координує потужність та апаратне забезпечення для побудови колективного інтелекту”, з філософією, що “якщо хтось хоче навчити щось і хтось готовий навчити це, то це навчання повинно бути дозволено відбутися.”
Цей протокол включає чотири основних учасника: подавачі, вирішувачі, валідатори та звірники. Подавачі подають завдання з запитами на навчання до мережі. Ці завдання включають цілі навчання, моделі, які потрібно навчити, та навчальні дані. У рамках процесу подання подавачі повинні авансувати передбачені обчислювальні витрати, необхідні вирішувачам.
Після здачі завдання призначаються розв'язувачам, які власне і виконують модельне навчання. Потім розв'язувачі передають виконані завдання валідаторам, які відповідають за перевірку навчання, щоб переконатися, що воно було правильно виконано. Перед викривачами стоїть завдання забезпечити чесність дій валідаторів. Щоб мотивувати викривачів брати участь у мережі, Генсин планує регулярно пропонувати завідомо неправильні докази, винагороджуючи викривачів, які їх ловлять.
Окрім забезпечення обчислень для робочих навантажень, пов'язаних зі штучним інтелектом, ключовою ціннісною пропозицією Gensyn є його система верифікації, яка все ще перебуває на стадії розробки. Перевірка необхідна, щоб переконатися, що зовнішні обчислення постачальниками графічних процесорів виконуються правильно (тобто гарантувати, що моделі користувачів навчені так, як вони хочуть). Генсин вирішує цю проблему за допомогою унікального підходу, використовуючи нові методи верифікації, які називаються «імовірнісними доказами навчання, точними протоколами на основі графів і заохочувальними іграми в стилі Truebit». Це оптимістична модель розв'язання, яка дозволяє валідаторам підтверджувати, що розв'язувачі запустили модель правильно, без необхідності повністю повторно запускати модель самостійно, що є дорогим і неефективним процесом.
Крім інноваційного методу верифікації, Gensyn також стверджує, що в порівнянні з централізованими альтернативами та конкурентами на ринку криптовалют вона є ефективною з точки зору вартості - пропонуючи ціни на навчання ML на 80% дешевше, ніж AWS, при цьому перевершуючи схожі проекти, такі як Truebit, в тестах.
Чи ці початкові результати можна відтворити великим масштабом у децентралізованих мережах, ще питання відкрите. Gensyn сподівається використовувати вільні обчислювальні потужності постачальників, таких як невеликі центри обробки даних, роздрібні користувачі та, в кінцевому підсумку, невеликі мобільні пристрої, такі як смартфони. Однак, як самі признають члени команди Gensyn, робота з різнорідними постачальниками обчислювальних послуг вносить нові виклики.
Для централізованих провайдерів, таких як Google Cloud і Coreweave, витрати на обчислення дорогі, але зв'язок між обчисленнями (пропускна здатність і затримка) дешевий. Ці системи призначені для якнайшвидшого полегшення зв'язку між апаратним забезпеченням. Gensyn порушує цю структуру, знижуючи витрати на обчислення, дозволяючи будь-кому у світі пропонувати графічні процесори, але в той же час збільшує витрати на зв'язок, оскільки мережа тепер повинна координувати обчислювальні завдання на віддаленому гетерогенному обладнанні. Gensyn ще не запущений, але він являє собою доказ концепції, якої можна досягти при створенні децентралізованого протоколу навчання машинному навчанню.
Децентралізовані обчислювальні платформи також пропонують можливість розробки методів створення штучного інтелекту. Bittensor - це децентралізований обчислювальний протокол, побудований на Substrate, який намагається відповісти на питання: «Як ми можемо перетворити штучний інтелект на спільний метод?» Bittensor має на меті досягти децентралізації та комодифікації генерації штучного інтелекту. Запущений у 2021 році, він сподівається використовувати силу спільних моделей машинного навчання для постійної ітерації та вироблення кращого штучного інтелекту.
Bittensor бере натхнення з Bitcoin, його власна валюта, TAO, має обмеження поставок 21 мільйон та цикл наполовину кожні чотири роки (перша наполовину запланована на 2025 рік). У відміну від використання Proof of Work для генерації правильних випадкових чисел та отримання блокових винагород, Bittensor покладається на “Proof of Intelligence”, що вимагає від гірників запускати моделі для генерації виводів у відповідь на запити на виведення.
Стимулювання інтелекту
Спочатку Bittensor поклався на модель змішаних експертів (MoE), щоб генерувати вихідні дані. Коли подається запит на виведення, модель MoE не покладається на узагальнену модель, а передає запит до найточнішої моделі для заданого типу введення. Уявіть, що ви будуєте будинок, де ви наймаєте різних експертів для різних аспектів будівельного процесу (наприклад, архітектори, інженери, художники, будівельники тощо). MoE застосовує це до моделей машинного навчання, намагаючись використовувати вихідні дані різних моделей на основі введення. Як пояснив засновник Bittensor Ала Шабана, це схоже на «розмову з кімнатою розумних людей, щоб отримати найкращу відповідь, а не розмовляти з однією людиною». Через труднощі в забезпеченні правильної маршрутизації, синхронізації повідомлень до відповідної моделі та стимулів, цей метод був відкладений до подальшого розвитку проекту.
У мережі Bittensor є два основні учасники: валідатори та майнери. Валідатори надсилають запити на виведення до майнерів, переглядають їх виводи та ранжують їх на основі якості їх відповідей. Щоб забезпечити надійність своїх рейтингів, валідаторам надається бали “vtrust” на основі того, наскільки послідовні їх рейтинги в порівнянні з іншими валідаторами. Чим вище бал “vtrust” валідатора, тим більше TAO видачі вони отримують. Це для того, щоб стимулювати валідаторів до досягнення консенсусу щодо ранжування моделей з часом, оскільки чим більше валідаторів погоджуються щодо ранжування, тим вищі їх індивідуальні бали “vtrust”.
Майнери, також відомі як сервери, є учасниками мережі, які запускають фактичні моделі машинного навчання. Вони конкурують, щоб надати найточніші результати для запитів валідаторів, і чим точніше результати, тим більше емісій TAO вони заробляють. Майнери вільні генерувати ці результати так, як вони бажають. Наприклад, у майбутньому цілком можливо, що майнери Bittensor раніше навчали моделі на Gensyn та використовуватимуть їх для заробітку емісій TAO.
Сьогодні більшість взаємодій відбувається безпосередньо між валідаторами та майнерами. Валідатори подають вхідні дані майнерам та запитують вихідні дані (тобто, навчання моделі). Після того як валідатори запитують майнерів у мережі та отримують їхні відповіді, вони ранжирують майнерів та подають свої рейтинги у мережу.
Взаємодія між валідаторами (покладаються на PoS) і майнерами (покладаються на Model Proof, форму PoW) відома як консенсус Yuma. Він спрямований на стимулювання майнерів виробляти найкращі результати, щоб заробити емісію TAO, і стимулювати валідаторів точно ранжувати результати майнерів, отримуючи вищі бали vtrust і збільшуючи свої винагороди TAO, таким чином формуючи механізм консенсусу для мережі.
Підмережі та додатки
Взаємодії на Bittensor, головним чином, включають у себе валідаторів, які подають запити майнерам та оцінюють їх виводи. Однак, коли якість внесення майнерів покращується та загальний рівень інтелекту мережі зростає, Bittensor створює додатковий рівень застосунків поверх існуючого стеку, щоб розробники могли будувати додатки, які запитують мережу Bittensor.
У жовтні 2023 року Bittensor представив підмережі через оновлення Revolution, зробивши значний крок до досягнення цієї мети. Підмережі - це окремі мережі на Bittensor, які стимулюють певну поведінку. Революція відкрила мережу для всіх, хто зацікавлений у створенні підмереж. Протягом кількох місяців після запуску було запущено понад 32 підмережі, включаючи підмережі для текстових підказок, збирання даних, генерації зображень і зберігання. У міру того, як підмережі дозрівають і стають готовими до продукту, творці підмереж також створюватимуть інтеграції програм, що дозволить командам створювати програми, які запитують певні підмережі. Деякі програми, такі як чат-боти, генератори зображень, боти для відповідей у Twitter і ринки прогнозів, існують, але немає жодних офіційних стимулів, крім фінансування від Фонду Bittensor, для валідаторів приймати та пересилати ці запити.
Для більш зрозумілого пояснення, нижче подано приклад того, як Bittensor може працювати, якщо додатки інтегруються в мережу.
Підмережі заробляють TAO на основі продуктивності, оціненої кореневою мережею. Коренева мережа, розташована над усіма підмережами, по суті, діє як спеціальна підмережа і управляється 64 найбільшими валідаторами підмережі за стейкінгом. Валідатори кореневих мереж ранжують підмережі на основі їх продуктивності та періодично розподіляють викиди TAO між підмережами. Таким чином, окремі підмережі діють як майнери для кореневої мережі.
Візія Bittensor
Bittensor все ще відчуває зростаючі труднощі, оскільки він розширює функціональність протоколу, щоб стимулювати генерацію інтелекту в кількох підмережах. Майнери постійно винаходять нові способи атаки на мережу для отримання більшої винагороди TAO, наприклад, дещо змінюючи вихідні висновки з високим рейтингом, що виконуються їхніми моделями, а потім надсилаючи кілька варіантів. Пропозиції щодо управління, що впливають на всю мережу, можуть бути подані та реалізовані лише Тріумвіратом, що повністю складається із зацікавлених сторін з Фонду Opentensor (примітно, що пропозиції вимагають схвалення Сенату Bittensor, що складається з валідаторів Bittensor, перед впровадженням). Токеноміка проєкту модифікується, щоб посилити стимули для використання TAO між підмережами. Проект також швидко здобув популярність завдяки своєму унікальному підходу, коли генеральний директор одного з найпопулярніших веб-сайтів зі штучним інтелектом, HuggingFace, заявив, що Bittensor повинен додати свої ресурси на сайт.
У нещодавньому статті під назвою «Парадигма Bittensor», опублікованій основними розробниками, команда описала візію Bittensor щодо того, що в кінцевому підсумку може стати «агностичним до того, що вимірюється». Теоретично це може дозволити Bittensor розвивати підмережі, які стимулюють будь-який тип поведінки, підтримуваний TAO. Існують значні практичні обмеження — основним з них є доказ того, що ці мережі можуть масштабуватися для обробки такого різноманіття процесів та те, що потенційні стимули сприяють прогресу поза централізованими продуктами.
Вищевказаний розділ надає детальний огляд різних типів децентралізованих протоколів обчислення штучного інтелекту (AI), що знаходяться на стадії розвитку. На початкових етапах розвитку і прийняття вони закладають основу для екосистеми, яка в кінцевому підсумку може сприяти створенню "будівельних блоків AI", схожих на концепцію "грошових Лего" в DeFi. Композиція бездозвільних блокчейнів дозволяє можливість будувати кожен протокол на іншому, створюючи більш комплексну децентралізовану екосистему штучного інтелекту.
Наприклад, ось як Акаш, Gensyn і Bittensor можуть всі взаємодіяти для реагування на запити щодо виведення.
Важливо розуміти, що це лише один приклад того, що може трапитися у майбутньому, а не відображення поточної екосистеми, існуючих партнерств чи потенційних результатів. Обмеження взаємодії та інші описані нижче обставини значно обмежують можливості інтеграції сьогодні. Більше того, фрагментація ліквідності та необхідність використання кількох токенів можуть шкодити користувацькому досвіду, як це зауважили засновники Akash та Bittensor.
Поза обчисленням, введено кілька інших децентралізованих інфраструктурних сервісів для підтримки зароджується екосистеми ШША в межах криптовалютного простору. Всі їх перераховувати в межах цього звіту не має сенсу, але деякі цікаві та наочні приклади включають:
Загалом ці приклади вказують на майже нескінченні можливості для дослідження децентралізованих ринкових моделей, що підтримують моделі штучного інтелекту або необхідну периферійну інфраструктуру для їх розвитку. На даний момент більшість цих проектів знаходяться на етапі доведення концепції та потребують подальших досліджень і розробки, щоб довести, що вони можуть працювати на потрібному масштабі для надання повноцінних послуг з штучного інтелекту.
Децентралізовані обчислювальні продукти все ще знаходяться на ранніх етапах розвитку. Вони тільки почали запускати передові обчислювальні можливості, здатні навчати найпотужніші моделі штучного інтелекту виробництва. Щоб отримати значну частку ринку, вони повинні продемонструвати фактичні переваги перед централізованими альтернативами. Потенційні тригери для більшої уваги включають:
Смарт-контракти є вісімкою будь-якої екосистеми блокчейну. Вони автоматично виконуються за певних умов, зменшуючи або усуваючи потребу у довірених третіх сторін, тим самим дозволяючи створення складних децентралізованих додатків, таких як у DeFi. Однак функціонал смарт-контрактів ще досить обмежений, оскільки вони працюють на основі заздалегідь встановлених параметрів, які потрібно оновлювати.
Наприклад, розумний контракт, розгорнутий для протоколу позики/позики, який містить специфікації щодо того, коли позиції повинні бути ліквідовані на підставі конкретних відношень вартості кредиту до вартості активів. Хоча корисні в статичних середовищах, ці розумні контракти потребують постійних оновлень для адаптації до змін у рівні ризику в динамічних ситуаціях, що створює виклики для контрактів, не керованих централізованими процесами. Наприклад, DAO, які покладаються на децентралізовані процеси управління, можуть не реагувати достатньо швидко на системні ризики.
Інтеграція штучного інтелекту (тобто моделей машинного навчання) в розумні контракти є потенційним способом покращення функціональності, безпеки та ефективності, покращуючи загальний досвід користувача. Однак ці інтеграції також вносять додаткові ризики, оскільки неможливо забезпечити, що моделі, що лежать в основі цих розумних контрактів, не будуть використовуватися або не зможуть інтерпретувати ситуації з довгим хвостом (з урахуванням дефіциту вхідних даних, ситуації з довгим хвостом важко навчити моделі).
Машинне навчання потребує значного обчислення для запуску складних моделей, що робить неможливим прямий запуск моделей штучного інтелекту в розумних контрактах через високі витрати. Наприклад, протокол DeFi, що пропонує моделі оптимізації доходності, знайшов би складність у запуску цих моделей on-chain без великих газових витрат. Одним із рішень є збільшення обчислювальних можливостей основного блокчейну. Однак це також підвищує вимоги до валідаторів ланцюга, що потенційно компрометує децентралізацію. Замість цього деякі проекти досліджують використання zkML для перевірки виходів в безпечний спосіб без потреби інтенсивного on-chain обчислення.
Частим прикладом, який ілюструє корисність zkML, є випадок, коли користувачам потрібно, щоб інші виконували дані через моделі та перевіряли, що їхні партнери дійсно виконали правильну модель. Розробники, які використовують децентралізовані обчислювальні постачальники для навчання своїх моделей, можуть турбуватися, що ці постачальники знизять витрати, використовуючи дешеві моделі, які виробляють вихідні дані з майже непомітними відмінностями. zkML дозволяє постачальникам обчислень виконувати дані через свої моделі, а потім генерувати докази, які можна перевірити on-chain, доводячи, що вихідні дані моделі для заданих вхідних даних є правильними. У цьому сценарії постачальник моделі отримує додаткову перевагу у тому, що він може пропонувати свою модель, не розкриваючи базові ваги, які виробили вихідні дані.
Звісно, можливий і протилежний варіант. Якщо користувачі хочуть запускати моделі на своїх даних, але не бажають надавати доступ до своїх даних проектам моделей через обмеження конфіденційності (наприклад, при медичних обстеженнях або власній бізнес-інформації), вони можуть запускати модель на своїх даних, не ділитися даними, а потім підтверджувати через докази, що вони запустили правильну модель. Ці можливості значно розширюють простір для розробки інтеграції функцій штучного інтелекту та смарт-контрактів, розв'язуючи великі обчислювальні обмеження.
З огляду на ранній стан галузі zkML, розробка в першу чергу зосереджена на створенні інфраструктури та інструментів, необхідних командам для перетворення своїх моделей і результатів у докази, які можна перевірити в мережі. Ці продукти максимально абстрагуються від аспектів нульового знання.
EZKL та Giza - це два проекти, які будують такі інструменти, надаючи перевірені докази виконання моделі навчання машин. Обидва допомагають командам створювати моделі навчання машин, щоб забезпечити виконання цих моделей таким чином, щоб результати можна було перевірити у ланцюжку сподіваною довірою. Обидва проекти використовують Open Neural Network Exchange (ONNX), щоб конвертувати моделі навчання машин, написані мовами загального призначення, такими як TensorFlow та Pytorch, у стандартний формат. Потім вони виводять версії цих моделей, які також генерують докази zk під час виконання. EZKL є відкритим джерелом, що виробляє zk-SNARKs, тоді як Giza є закритим джерелом, виробляючи zk-STARKs. Обидва проекти наразі сумісні лише з EVM.
Останнім часом EZKL зробив значний прогрес у вдосконаленні рішень zkML, зосереджуючись переважно на зменшенні витрат, підвищенні безпеки та прискоренні генерації доказів. Наприклад, в листопаді 2023 року EZKL інтегрував нову відкриту бібліотеку GPU, яка зменшила час агрегації доказів на 35%; в січні EZKL випустив Lilith, програмне рішення для інтеграції високопродуктивних обчислювальних кластерів та оркестрації одночасних систем завдань під час використання доказів EZKL. Унікальність Giza полягає в наданні інструментів для створення перевірних моделей машинного навчання та планується реалізувати веб3 еквівалент Hugging Face, відкривши користувацький ринок для співпраці та обміну моделями zkML, а також підключення децентралізованих обчислювальних продуктів. У січні EZKL опублікував порівняльну оцінку продуктивності EZKL, Giza та RiscZero (як описано нижче), демонструючи швидші часи доказів та використання пам'яті.
В даний час Modulus Labs розробляє нову технологію доказу з нульовим розголошенням (zk), спеціально розроблену для моделей штучного інтелекту. Modulus випустила документ під назвою «Інтелектуальна вартість», з якого випливає, що запуск моделей штучного інтелекту в ланцюжку несе непомірно високі витрати. У цьому документі, опублікованому в січні 2023 року, проводиться порівняльний аналіз існуючих систем доказів zk, щоб визначити покращення можливостей доказів zk і вузькі місця в моделях штучного інтелекту. Це показує, що поточні продукти занадто дорогі та неефективні для великомасштабних застосувань штучного інтелекту. Ґрунтуючись на початкових дослідженнях, у листопаді Modulus запустив Remainder, спеціалізований професор zk, спрямований на скорочення вартості та часу перевірки моделей штучного інтелекту, що робить проєкти економічно життєздатними для великомасштабної інтеграції в смарт-контракти. Їхня робота є пропрієтарною, що унеможливлює порівняльний аналіз зі згаданими рішеннями, але нещодавно вона була процитована в блозі Віталіка про криптографію та штучний інтелект.
Розробка інструментів та інфраструктури має вирішальне значення для майбутнього зростання простору zkML, оскільки вона може значно зменшити тертя, пов'язані з розгортанням перевірених офчейн-обчислень, і потребу в командах zk. Створення безпечних інтерфейсів для некрипто-нативних практиків машинного навчання, щоб перенести свої моделі в ланцюжок, дозволить додаткам експериментувати з дійсно новими сценаріями використання. Крім того, ці інструменти усувають серйозну перешкоду для ширшого впровадження zkML: відсутність обізнаних розробників, зацікавлених у роботі на перетині нульового розголошення, машинного навчання та криптографії.
Інші рішення, які розробляються, відомі як «співпроцесори» (зокрема, RiscZero, Axiom та Ritual), виконують різні ролі, включаючи перевірку поза-ланцюжкових обчислень в ланцюжку. Як EZKL, Giza та Modulus, їхня мета полягає в тому, щоб абстрагувати процес генерації доказів zk повністю, створюючи віртуальні машини з нульовими знаннями, які можуть виконувати поза-ланцюжкові програми та генерувати перевірні докази в ланцюжку. RiscZero та Axiom обслуговують прості моделі штучного інтелекту як більш загальнопризначені співпроцесори, тоді як Ritual побудований спеціально для використання з моделями штучного інтелекту.
Перший екземпляр Ritual, Infernet, включає Infernet SDK, який дозволяє розробникам надсилати запити на висновок у мережу та отримувати натомість вихідні дані та необов'язкові докази. Вузли Infernet обробляють ці офчейн-обчислення, перш ніж повертати виходи. Наприклад, DAO може створити процес, який гарантує, що всі нові пропозиції щодо управління відповідають певним передумовам перед подачею. Щоразу, коли подається нова пропозиція, контракт на управління запускає запит на висновок через Infernet, викликаючи модель штучного інтелекту, навчену спеціально для управління DAO. Ця модель розглядає пропозицію, щоб переконатися, що всі необхідні стандарти дотримані, і повертає результати та докази для схвалення або відхилення подання пропозиції.
Протягом наступного року команда Ritual планує ввести додаткові функції, утворюючи інфраструктурний шар, відомий як суперланцюг Ritual. Багато проектів, які обговорювалися, можуть бути інтегровані як постачальники послуг до Ritual. Команда Ritual вже інтегрувалася з EZKL для генерації доказів і може незабаром додати функції від інших провідних постачальників. Вузли Infernet на Ritual також можуть використовувати графічні процесори Akash або io.net та запитувати моделі, навчені в підмережі Bittensor. Їхнім кінцевим цілям є стати перевідним постачальником відкритої ШІ для надання послуг з машинного навчання та інших завдань, пов'язаних з ШІ, для будь-якої мережі та будь-якого робочого завдання.
zkML сприяє у вирішенні дихотомії між блокчейном, який має обмежені ресурси за природою, і штучним інтелектом, який вимагає значних обчислювальних та даних ресурсів. Як зазначив засновник Giza, "сценарії використання надзвичайно різноманітні... Це трохи нагадує запитання про сценарії використання для смарт-контрактів на початкових етапах Ethereum... Те, що ми робимо, це просто розширює сценарії використання для смарт-контрактів." Однак, як відзначено, поточний розвиток в основному відбувається на рівні інструментів та інфраструктури. Додатки все ще перебувають на експериментальній стадії, і команди стикаються з викликом довести, що вартість, генерована впровадженням моделей з zkML, переважає їх складність та витрати.
Поточні застосування включають:
zkML залишається експериментальним, більшість проектів спрямовані на побудову інфраструктурних примітивів та концепційних доказів. Поточні виклики включають обчислювальні витрати, обмеження пам'яті, складність моделі, обмежені інструменти та інфраструктура, талант розробника. Коротко кажучи, потрібно виконати значну кількість роботи, перш ніж zkML може бути впроваджено в масштабах, необхідних для споживчих продуктів.
Однак, по мірі того, як галузь стане дорослою і ці обмеження будуть вирішені, zkML стане ключовою складовою інтеграції штучного інтелекту з криптографією. Фактично, zkML обіцяє привести будь-який масштаб обчислень поза ланцюжком на ланцюжок, зберігаючи ті ж самі або схожі гарантії безпеки, що й обчислення на ланцюжку. Проте, перед тим як ця мрія здійсниться, ранні прихильники технології продовжуватимуть балансувати приватність та безпеку zkML з ефективністю альтернатив.
Агенти штучного інтелекту
Одним із найцікавіших поєднань штучного інтелекту та криптовалюти є тривалий експеримент з агентами штучного інтелекту. Агенти - це автономні роботи, які можуть отримувати, тлумачити та виконувати завдання за допомогою моделей ШІ. Це може варіюватися від наявності особистого помічника у будь-який час, налаштованого під ваші уподобання, до найму фінансового агента для управління та коригування вашого інвестиційного портфеля на основі ваших ризикових уподобань.
Оскільки криптовалюта пропонує інфраструктуру для проведення оплати без дозволу та бездовіркову, агенти та криптовалюта можуть бути добре інтегровані. Після навчання агенти матимуть гаманець, що дозволить їм проводити транзакції самостійно за допомогою смарт-контрактів. Наприклад, сьогоднішні агенти можуть здобувати інформацію в Інтернеті, а потім торгувати на ринках прогнозування на основі моделей.
Morpheus - один із останніх проектів відкритого коду агента, запущений у 2024 році на Ethereum та Arbitrum. Його біла книга була опублікована анонімно у вересні 2023 року, надаючи основу для формування та розвитку спільноти, включаючи відомі фігури, такі як Ерік Воргіс. У білій книзі є можливість завантаження протоколу розумного агента, відкритого LLM, який може працювати локально, керуваний гаманцем користувача та взаємодіяти з розумними контрактами. Він використовує рейтинги розумних контрактів для допомоги агентам визначити, з якими розумними контрактами можна безпечно взаємодіяти на основі критеріїв, таких як кількість оброблених транзакцій.
Біла книга також надає рамки для побудови мережі Morpheus, включаючи структури стимулювання та інфраструктуру, необхідну для запуску протоколу розумного агента. Це включає стимули для учасників у побудові фронтендів для взаємодії з агентами, API для розробників у побудові плагін-агентів для взаємодії, та хмарні рішення для користувачів отримати доступ до обчислень та сховищ, необхідних для запуску агентів на пристроях на межі. Початкове фінансування проекту було запущене в початковому лютому, а повний протокол очікується запустити в другому кварталі 2024 року.
Децентралізована автономна мережа інфраструктури (DAIN) - це новий протокол інфраструктури агента, який будує економіку від агента до агента на Solana. Метою DAIN є забезпечення можливості агентам з різних підприємств безперешкодно взаємодіяти один з одним через загальний API, значно відкриваючи простір для проектування для агентів штучного інтелекту, фокусуючись на агентах, які можуть взаємодіяти як з продуктами web2, так і з продуктами web3. У січні DAIN оголосив про своє перше партнерство з Asset Shield, що дозволяє користувачам додавати «підписантів агентів» до своїх мультіпідписів, здатних інтерпретувати транзакції та схвалювати / відхиляти їх на основі правил, встановлених користувачем.
Fetch.AI - один з перших розгорнутих протоколів штучного інтелекту та розвинув екосистему для створення, розгортання та використання агентів on-chain за допомогою токенів FET та гаманців Fetch.AI. Протокол пропонує повний набір інструментів та додатків для використання агентів, включаючи функції гаманця для взаємодії та замовлення агентів.
Autonolas, заснований колишніми членами команди Fetch, є відкритим ринком для створення та використання децентралізованих штучних інтелектуальних агентів. Autonolas також надає набір інструментів для розробників для створення хостованих позаланцюгових штучних інтелектуальних агентів, які можуть підключатися до декількох блокчейнів, включаючи Polygon, Ethereum, Gnosis Chain та Solana. У них наразі є деякі активні концепції продуктів агентів, включаючи для прогностичних ринків та управління DAO.
SingularityNet будує децентралізований ринок для штучного інтелекту, де можуть бути розгорнуті спеціалізовані агенти штучного інтелекту, які можуть бути найняті іншими агентами для виконання складних завдань. Інші компанії, такі як AlteredStateMachine, розробляють інтеграції агентів штучного інтелекту з NFT. Користувачі мінтують NFT з випадковими характеристиками, які надають їм переваги та недоліки при виконанні різних завдань. Цих агентів потім можна навчати покращувати певні характеристики для використання в гральній сфері, DeFi або як віртуальні помічники та торгувати ними з іншими користувачами.
Загалом, ці проекти уявляють майбутню екосистему агентів, здатних спільно працювати не лише для виконання завдань, а й для допомоги у побудові загального штучного інтелекту. Справжні складні агенти матимуть здатність автономно завершувати будь-яке користувацьке завдання. Наприклад, повністю автономні агенти зможуть зрозуміти, як найняти іншого агента для інтеграції API, а потім виконати завдання без необхідності переконатися, що агент вже інтегрувався з зовнішніми API (наприклад, веб-сайтами бронювання подорожей) перед використанням. З погляду користувача немає потреби перевіряти, чи може агент виконати завдання, оскільки агент може визначити це самостійно.
У липні 2023 року Lightning Labs запустили реалізацію концепції використання агентів в мережі Lightning, яку назвали біткоїн-набором від LangChain. Цей продукт особливо цікавий, оскільки він має на меті вирішити проблему, яка стає все більш гострою в світі Web 2 - обмежені та дорогі ключі API веб-додатків.
LangChain вирішує цю проблему, надаючи розробникам набір інструментів, які дозволяють агентам купувати, продавати та утримувати Bitcoin, а також запитувати ключі API та відправляти мікроплатежі. На традиційних платіжних маршрутах мікроплатежі є надто дорогими через комісії, але на мережі Lightning агенти можуть щоденно відправляти необмежену кількість мікроплатежів за мінімальну вартість. Коли використовується разом із фреймворком L402 для вимірювання платежів API LangChain, компанії можуть налаштовувати витрати на доступ до своїх API в залежності від збільшення та зменшення використання, а не встановлювати один дорогий стандарт.
У майбутньому ланцюжкові дії будуть переважно визначатися взаємодією між агентами та агентами, що потребує механізмів забезпечення можливості взаємодії агентів один з одним без заборонення витрат. Цей ранній приклад демонструє потенціал використання агентів на бездозвільних та економічно ефективних платіжних шляхах, відкриваючи можливості для нових ринків та економічної взаємодії.
Сфера агентів все ще знаходиться на початковому етапі. Проекти тільки почали запускати функціональних агентів, які можуть обробляти прості завдання - доступ зазвичай обмежений досвідченими розробниками та користувачами. Однак з часом одним з найбільш значущих впливів штучних інтелектуальних агентів на криптовалюту буде покращення користувацького досвіду у всіх вертикалях. Транзакції почнуть переходити з кліків на текст, що дозволить користувачам взаємодіяти з агентами on-chain через розмовні інтерфейси. Команди, такі як Dawn Wallet, вже запустили чат-бот гаманці, що дозволяє користувачам взаємодіяти on-chain.
Крім того, залишається невідомим, як агенти будуть працювати в Web 2, оскільки фінансові засоби ґрунтуються на регульованих банківських установах, які не можуть працювати цілодобово або забезпечити безперешкодні міжнародні транзакції. Як підкреслила Лін Алден, відсутність повернень та здатність обробляти мікротранзакції робить криптовалютні засоби особливо привабливими порівняно з кредитними картками. Однак, якщо агенти стануть більш поширеним засобом здійснення транзакцій, ймовірно, існуючі провайдери платежів та додатки швидко адаптуються, впроваджуючи інфраструктуру, необхідну для роботи на існуючих фінансових засобах, тим самим зменшуючи деякі переваги використання криптовалют.
На даний момент агенти можуть бути обмежені детермінованими криптовалютними транзакціями, де певний вхід гарантує певний вихід. Обидва моделі описали здатність цих агентів знаходити способи виконання складних завдань, а інструменти розширюють спектр завдань, які вони можуть виконати, обидва ці аспекти потребують подальшого розвитку. Щоб криптовалютні агенти стали корисними поза новаторськими використаннями криптовалют на ланцюжку блоків, потрібна більш широка інтеграція та прийняття криптовалюти як форми оплати, разом із чіткістю регулювання. Однак, по мірі розвитку цих компонентів, агенти готові стати одними з найбільших споживачів децентралізованого обчислення та рішень zkML, автономно отримуючи та вирішуючи будь-яке завдання недетермінованим чином.
Штучний інтелект вносить у криптовалюту ті ж інновації, які ми бачили у web2, покращуючи все від розвитку інфраструктури до користувацького досвіду та доступності. Однак проекти все ще знаходяться на ранніх етапах розвитку, і найближча інтеграція криптовалюти та штучного інтелекту в основному буде здійснюватися за допомогою офлайн інтеграцій.
Продукти, такі як Copilot, призначені для «збільшення продуктивності розробника в 10 разів», і платформи 1-го рівня та додатки DeFi вже запустили платформи розробки з підтримкою штучного інтелекту у співпраці з великими компаніями, такими як Microsoft. Компанії, такі як Cub3.ai та Test Machine, розробляють інтеграції штучного інтелекту для аудиту смарт-контрактів та моніторингу загроз у реальному часі для підвищення безпеки на ланцюжку. Чат-боти LLM навчаються на ланцюжкових даних, документації протоколу та додатках для надання користувачам покращеної доступності та досвіду користувача.
Викликом для більш розширених інтеграцій, що дійсно використовують основну технологію криптовалют, залишається довести, що впровадження рішень зі штучного інтелекту on-chain технічно й економічно доцільне. Розвиток децентралізованого обчислення, zkML та AI-агентів вказує на перспективні вертикалі, що закладають основу для глибоко взаємопов'язаного майбутнього криптовалют та штучного інтелекту.
Поява публічних блокчейнів знаменує собою глибокий прогрес в історії комп'ютерних наук, тоді як розвиток штучного інтелекту має значний вплив на наш світ. Технологія блокчейн пропонує нові шаблони для розрахунків за транзакціями, зберігання даних і проектування систем, тоді як штучний інтелект являє собою революцію в обчисленнях, аналізі та доставці контенту. Інновації в цих галузях відкривають нові варіанти використання, які можуть прискорити впровадження обох секторів у найближчі роки. У цьому звіті розглядається поточна інтеграція криптовалюти та штучного інтелекту, зосереджуючись на нових варіантах використання, які мають на меті подолати розрив між ними та використовувати їхні сильні сторони. Зокрема, він розглядає проєкти, що розробляють протоколи децентралізованих обчислень, інфраструктуру машинного навчання з нульовим розголошенням (zkML) та агентів штучного інтелекту.
Криптовалюта пропонує інклюзивний, безнадійний і складений рівень розрахунків для штучного інтелекту, відкриваючи такі варіанти використання, як легший доступ до апаратного забезпечення за допомогою децентралізованих обчислювальних систем, створення агентів штучного інтелекту, здатних виконувати складні завдання, що вимагають обміну цінностями, а також розробка рішень для ідентифікації та походження для протидії атакам Sybil і діпфейкам. Штучний інтелект приносить криптовалюті багато з тих самих переваг, що й у Web 2.0, включаючи покращений досвід користувачів і розробників за допомогою великих мовних моделей, таких як ChatGPT і Copilot, а також значно покращену функціональність і потенціал автоматизації смарт-контрактів. Блокчейн забезпечує прозоре, багате даними середовище, необхідне для штучного інтелекту, хоча обмежена обчислювальна потужність блокчейну є основною перешкодою для прямої інтеграції моделей штучного інтелекту.
Експерименти та пізніше прийняття взаємодії криптовалюти та штучного інтелекту визначаються тими ж силами, які ведуть найбільш перспективні випадки використання криптовалюти: доступ до шару координації без дозволу та бездовіри, що сприяє кращому переказу вартості. З урахуванням великого потенціалу, учасники цієї галузі повинні розуміти фундаментальні способи перетину цих технологій.
Штучний інтелект - це використання обчислень та машин для імітації мислення та розв'язання проблем людей.
Нейронні мережі - це метод навчання моделей штучного інтелекту. Вони пропускають вхідні дані через окремі алгоритмічні шари, вдосконалюючи їх до отримання бажаного результату. Нейронні мережі складаються з рівнянь з вагами, які можна налаштувати для зміни виходу. Для навчання вони можуть вимагати великого обсягу даних та обчислень для забезпечення точних результатів. Це один з найпоширеніших способів розробки моделей штучного інтелекту (наприклад, ChatGPT ґрунтується на процесі нейронних мереж, що базується на трансформерах).
Навчання – це процес розробки нейронних мереж та інших моделей штучного інтелекту. Для навчання моделей правильній інтерпретації вхідних даних і отримання точних результатів потрібна значна кількість даних. Під час навчання вагові коефіцієнти рівнянь моделі безперервно змінюються до тих пір, поки не буде отримано задовільний результат. Навчання може бути дуже дорогим. Наприклад, ChatGPT використовує десятки тисяч власних графічних процесорів для обробки даних. Команди з меншими ресурсами часто покладаються на спеціалізованих постачальників обчислювальної техніки, таких як Amazon Web Services, Azure і Google Cloud.
Виведення - це фактичне використання моделей штучного інтелекту для отримання виводів або результатів (наприклад, використання ChatGPT для створення змісту для роботи з перетину криптовалюти та штучного інтелекту). Виведення використовується протягом всього процесу навчання та в кінцевому продукті. Через обчислювальні витрати, навіть після завершення навчання, їх експлуатаційні витрати можуть бути високими, хоча їх обчислювальна інтенсивність нижча, ніж під час навчання.
Докази з нульовим витоком (ZKP) дозволяють перевіряти висловлення без розкриття базової інформації. Це корисно в криптовалюті з двох основних причин: 1) Приватність та 2) Масштабування. Для приватності воно дозволяє користувачам проводити транзакції без розкриття чутливої інформації (наприклад, скільки ETH є в гаманці). Для масштабування воно дозволяє доведення обчислень поза ланцюжком на ланцюжок швидше, ніж повторне виконання обчислень. Це дозволяє блокчейнам та додаткам виконувати обчислення дешево поза ланцюжком, а потім перевіряти їх на ланцюжку. Для отримання додаткової інформації про нульовий витік та його роль у віртуальних машинах Ethereum, див. звіт Крістін Кім про zkEVMs: Майбутнє масштабування Ethereum.
Проекти, що інтегрують штучний інтелект та криптовалюту, все ще будують базову інфраструктуру, необхідну для підтримки великомасштабних он-чейн взаємодій з ШІ.
Ринки децентралізованих обчислень з'являються, щоб забезпечити величезне фізичне обладнання, необхідне для навчання та виведення моделей штучного інтелекту, насамперед у формі графічних процесорів (GPU). Ці двосторонні ринки об'єднують тих, хто здає в оренду і прагне орендувати обчислення, полегшуючи передачу вартості та перевірку обчислень. У рамках децентралізованих обчислень з'являється кілька підкатегорій, що пропонують додаткові функції. Окрім двосторонніх ринків, у цьому звіті також розглядаються постачальники послуг з навчання машинному навчанню, які пропонують перевірене навчання та точне налаштування результатів, а також проекти, присвячені зв'язуванню обчислень та генерації моделей для забезпечення штучного інтелекту, які часто називають інтелектуальними мережами стимулювання.
zkML - це нова область уваги для проектів, які мають на меті надавати перевірні виходи моделі on-chain в економічно доцільний та своєчасний спосіб. Ці проекти в основному дозволяють додаткам обробляти важкі обчислювальні запити off-chain, а потім публікувати перевірні виходи on-chain, доводячи, що off-chain робоче навантаження було завершено та точно. zkML на даний момент є як дорогим, так і часово затратним, але все частіше використовується як рішення. Це очевидно в зростаючій кількості інтеграцій між постачальниками zkML та додатками DeFi/ігор, які бажають використовувати моделі штучного інтелекту.
Достатня кількість обчислень та можливість перевірки обчислень on-chain відкривають двері для AI-агентів on-chain. Агенти - це навчені моделі, здатні виконувати запити від імені користувачів. Агенти відкривають можливість значно покращити on-chain досвід, дозволяючи користувачам виконувати складні транзакції просто спілкуючись з чат-ботом. Однак наразі проекти агентів все ще зосереджені на розвитку інфраструктури та інструментів для простого та швидкого розгортання.
Штучний інтелект вимагає великих обчислень для навчання моделей і виконання висновків. За останнє десятиліття, коли моделі ставали все більш складними, попит на обчислення зріс у геометричній прогресії. Наприклад, OpenAI помітила, що з 2012 по 2018 рік обчислювальний попит на її моделі подвоювався кожні два роки, переходячи до подвоєння кожні три з половиною місяці. Це призвело до різкого зростання попиту на графічні процесори, а деякі майнери криптовалют навіть перепрофілювали свої графічні процесори для надання послуг хмарних обчислень. Оскільки конкуренція за доступ до обчислень посилюється, а витрати зростають, деякі проекти використовують криптографічні технології, щоб запропонувати децентралізовані обчислювальні рішення. Вони забезпечують обчислення на вимогу за конкурентоспроможними цінами, дозволяючи командам навчати та запускати моделі за доступною ціною. У деяких випадках компроміси можуть стосуватися продуктивності та безпеки.
Попит на найсучасніші графічні процесори (наприклад, виробництва Nvidia) значний. У вересні Tether придбала частку в німецькому біткойн-майнері Northern Data, витративши 420 мільйонів доларів на придбання 10 000 графічних процесорів H100 (одні з найбільш просунутих графічних процесорів для навчання штучного інтелекту). Час очікування придбання обладнання найвищого рівня може становити не менше шести місяців, а в багатьох випадках і більше. Гірше того, компаніям часто доводиться підписувати довгострокові контракти, щоб забезпечити обсяги обчислень, які вони, можливо, навіть не використовують. Це може призвести до ситуацій, коли обчислювальні ресурси доступні, але недоступні на ринку. Децентралізовані обчислювальні системи допомагають вирішити цю неефективність ринку, створюючи вторинний ринок, де власники обчислень можуть негайно здавати свої надлишкові потужності в суборенду після повідомлення, тим самим вивільняючи нову пропозицію.
Окрім конкурентоспроможного ціноутворення та доступності, ключовою ціннісною пропозицією децентралізованих обчислень є стійкість до цензури. У передових розробках штучного інтелекту все частіше домінують великі технологічні компанії з неперевершеними можливостями обчислень і доступу до даних. Першою ключовою темою, висвітленою в річному звіті AI Index за 2023 рік, було зростаюче випередження галузі академічних кіл у розробці моделей штучного інтелекту, зосередження контролю в руках кількох технологічних лідерів. Це викликає занепокоєння щодо їхнього потенціалу мати значний вплив на встановлення норм і цінностей, що лежать в основі моделей штучного інтелекту, особливо після того, як ці технологічні компанії наполягають на регулюванні, щоб обмежити неконтрольований розвиток штучного інтелекту.
Останніми роками з'явилося кілька моделей децентралізованого обчислення, кожна зі своєю власною спрямованістю та компромісами.
Узагальнюючи, проекти, такі як Akash, io.net, iExec та Cudos, є застосуванням децентралізованого обчислення, пропонуючи поза даними та загальними розв'язками обчислення, доступ до спеціалізованого обчислення для тренування та інференції штучного інтелекту. Akash виділяється як єдиний повністю відкритий платформа «суперхмара», яка використовує SDK Cosmos для мережі доказів участі. AKT, внутрішній токен Akash, служить методом оплати для забезпечення мережі та стимулювання участі. Запущений у 2020 році, основний мережа Akash спочатку зосереджувалася на ринку дозволів обчислення в хмарі, який включає послуги зберігання та оренди процесора. У червні 2023 року Akash представив тестову мережу, орієнтовану на ГПУ, за якою в липні відбувся запуск основної мережі для ГПУ, що дозволяє оренду ГПУ для тренування та інференції штучного інтелекту.
Екосистема Akash складається з двох основних учасників: орендарів, які шукають обчислювальні ресурси, та постачальників, постачальників обчислень. Процес обертання аукціонів сприяє збігу орендарів та постачальників, де орендарі публікують свої вимоги до обчислень, включаючи бажані місця розташування серверів або типи обладнання та свій бюджет. Постачальники потім роблять ставки, і переможець з найнижчою ціною отримує завдання. Валідатори підтримують цілісність мережі, з поточним лімітом на 100 валідаторів, який планується збільшити з часом. Участь у якості валідатора відкрита для тих, хто ставить більше AKT, ніж найменший зараз наявний валідатор. Власники AKT можуть делегувати свої токени валідаторам, з винагородами за транзакції та блоки, розподіленими в AKT. Крім того, за кожний лізинг мережа Akash заробляє «ставку», яку визначає спільнота, розподілену власникам AKT.
Вторинний ринок децентралізованих обчислень спрямований на усунення неефективності на існуючому обчислювальному ринку, де обмеження пропозиції призводять до того, що компанії накопичують ресурси понад свої потреби, а довгострокові контракти з постачальниками хмарних послуг ще більше обмежують пропозицію. Децентралізовані обчислювальні платформи відкривають нові пропозиції, дозволяючи будь-кому, хто має обчислювальні потреби, стати постачальником.
Чи призведе сплеск попиту на графічні процесори для навчання штучного інтелекту до постійного використання мережі на Akash, ще належить з'ясувати. Історично склалося так, що Akash пропонував ринкові послуги на базі процесора зі знижкою 70-80% порівняно з централізованими альтернативами, але ця цінова стратегія не призвела до значного прийняття. Мережева активність, виміряна активними орендними угодами, вийшла на плато: до другого кварталу 2023 року в середньому 33% обчислень, 16% пам'яті та 13% використання сховища, що є вражаючим показником для впровадження в мережі, але свідчить про те, що пропозиція все ще перевищує попит. Через півроку після запуску мережі графічних процесорів ще занадто рано для остаточної оцінки довгострокового впровадження, хоча перші ознаки показують середнє використання графічних процесорів на рівні 44%, що в основному обумовлено попитом на високоякісні графічні процесори, такі як A100, понад 90% з яких були здані в оренду.
Щоденні витрати Акаша майже подвоїлися з моменту впровадження GPU, що зумовлено частково збільшенням використання інших послуг, особливо ЦП, але головним чином через нове використання GPU.
Цінова політика конкурентоспроможна або, у деяких випадках, дорожча, ніж у централізованих аналогів, таких як Lambda Cloud і Vast.ai. Великий попит на топові GPU, такі як H100 і A100, означає, що більшість власників такого обладнання не зацікавлені в їхньому розміщенні на конкурентному ринку.
Незважаючи на початковий прибуток, бар'єри для прийняття залишаються. Децентралізовані обчислювальні мережі повинні зробити подальші кроки для створення попиту та пропозиції, а команди вивчають, як найкраще залучити нових користувачів. Наприклад, на початку 2024 року Akash прийняв Пропозицію 240, збільшуючи викиди AKT для постачальників графічних процесорів, щоб стимулювати більшу пропозицію, особливо для графічних процесорів високого класу. Команди також працюють над моделями підтвердження концепції, щоб продемонструвати потенційним користувачам реальні можливості своїх мереж. Akash навчає свої базові моделі та запустив чат-боти та продукти для генерації зображень, які використовують графічні процесори Akash. Аналогічним чином, io.net розробила модель стабільної дифузії та запускає нові мережеві функціональні можливості для кращої імітації продуктивності та масштабування мережі.
Крім загальних платформ обчислень, які можуть задовольнити вимоги штучного інтелекту, також з'являється група професійних постачальників AI GPU, які спеціалізуються на навчанні моделей машинного навчання. Наприклад, Gensyn “координує потужність та апаратне забезпечення для побудови колективного інтелекту”, з філософією, що “якщо хтось хоче навчити щось і хтось готовий навчити це, то це навчання повинно бути дозволено відбутися.”
Цей протокол включає чотири основних учасника: подавачі, вирішувачі, валідатори та звірники. Подавачі подають завдання з запитами на навчання до мережі. Ці завдання включають цілі навчання, моделі, які потрібно навчити, та навчальні дані. У рамках процесу подання подавачі повинні авансувати передбачені обчислювальні витрати, необхідні вирішувачам.
Після здачі завдання призначаються розв'язувачам, які власне і виконують модельне навчання. Потім розв'язувачі передають виконані завдання валідаторам, які відповідають за перевірку навчання, щоб переконатися, що воно було правильно виконано. Перед викривачами стоїть завдання забезпечити чесність дій валідаторів. Щоб мотивувати викривачів брати участь у мережі, Генсин планує регулярно пропонувати завідомо неправильні докази, винагороджуючи викривачів, які їх ловлять.
Окрім забезпечення обчислень для робочих навантажень, пов'язаних зі штучним інтелектом, ключовою ціннісною пропозицією Gensyn є його система верифікації, яка все ще перебуває на стадії розробки. Перевірка необхідна, щоб переконатися, що зовнішні обчислення постачальниками графічних процесорів виконуються правильно (тобто гарантувати, що моделі користувачів навчені так, як вони хочуть). Генсин вирішує цю проблему за допомогою унікального підходу, використовуючи нові методи верифікації, які називаються «імовірнісними доказами навчання, точними протоколами на основі графів і заохочувальними іграми в стилі Truebit». Це оптимістична модель розв'язання, яка дозволяє валідаторам підтверджувати, що розв'язувачі запустили модель правильно, без необхідності повністю повторно запускати модель самостійно, що є дорогим і неефективним процесом.
Крім інноваційного методу верифікації, Gensyn також стверджує, що в порівнянні з централізованими альтернативами та конкурентами на ринку криптовалют вона є ефективною з точки зору вартості - пропонуючи ціни на навчання ML на 80% дешевше, ніж AWS, при цьому перевершуючи схожі проекти, такі як Truebit, в тестах.
Чи ці початкові результати можна відтворити великим масштабом у децентралізованих мережах, ще питання відкрите. Gensyn сподівається використовувати вільні обчислювальні потужності постачальників, таких як невеликі центри обробки даних, роздрібні користувачі та, в кінцевому підсумку, невеликі мобільні пристрої, такі як смартфони. Однак, як самі признають члени команди Gensyn, робота з різнорідними постачальниками обчислювальних послуг вносить нові виклики.
Для централізованих провайдерів, таких як Google Cloud і Coreweave, витрати на обчислення дорогі, але зв'язок між обчисленнями (пропускна здатність і затримка) дешевий. Ці системи призначені для якнайшвидшого полегшення зв'язку між апаратним забезпеченням. Gensyn порушує цю структуру, знижуючи витрати на обчислення, дозволяючи будь-кому у світі пропонувати графічні процесори, але в той же час збільшує витрати на зв'язок, оскільки мережа тепер повинна координувати обчислювальні завдання на віддаленому гетерогенному обладнанні. Gensyn ще не запущений, але він являє собою доказ концепції, якої можна досягти при створенні децентралізованого протоколу навчання машинному навчанню.
Децентралізовані обчислювальні платформи також пропонують можливість розробки методів створення штучного інтелекту. Bittensor - це децентралізований обчислювальний протокол, побудований на Substrate, який намагається відповісти на питання: «Як ми можемо перетворити штучний інтелект на спільний метод?» Bittensor має на меті досягти децентралізації та комодифікації генерації штучного інтелекту. Запущений у 2021 році, він сподівається використовувати силу спільних моделей машинного навчання для постійної ітерації та вироблення кращого штучного інтелекту.
Bittensor бере натхнення з Bitcoin, його власна валюта, TAO, має обмеження поставок 21 мільйон та цикл наполовину кожні чотири роки (перша наполовину запланована на 2025 рік). У відміну від використання Proof of Work для генерації правильних випадкових чисел та отримання блокових винагород, Bittensor покладається на “Proof of Intelligence”, що вимагає від гірників запускати моделі для генерації виводів у відповідь на запити на виведення.
Стимулювання інтелекту
Спочатку Bittensor поклався на модель змішаних експертів (MoE), щоб генерувати вихідні дані. Коли подається запит на виведення, модель MoE не покладається на узагальнену модель, а передає запит до найточнішої моделі для заданого типу введення. Уявіть, що ви будуєте будинок, де ви наймаєте різних експертів для різних аспектів будівельного процесу (наприклад, архітектори, інженери, художники, будівельники тощо). MoE застосовує це до моделей машинного навчання, намагаючись використовувати вихідні дані різних моделей на основі введення. Як пояснив засновник Bittensor Ала Шабана, це схоже на «розмову з кімнатою розумних людей, щоб отримати найкращу відповідь, а не розмовляти з однією людиною». Через труднощі в забезпеченні правильної маршрутизації, синхронізації повідомлень до відповідної моделі та стимулів, цей метод був відкладений до подальшого розвитку проекту.
У мережі Bittensor є два основні учасники: валідатори та майнери. Валідатори надсилають запити на виведення до майнерів, переглядають їх виводи та ранжують їх на основі якості їх відповідей. Щоб забезпечити надійність своїх рейтингів, валідаторам надається бали “vtrust” на основі того, наскільки послідовні їх рейтинги в порівнянні з іншими валідаторами. Чим вище бал “vtrust” валідатора, тим більше TAO видачі вони отримують. Це для того, щоб стимулювати валідаторів до досягнення консенсусу щодо ранжування моделей з часом, оскільки чим більше валідаторів погоджуються щодо ранжування, тим вищі їх індивідуальні бали “vtrust”.
Майнери, також відомі як сервери, є учасниками мережі, які запускають фактичні моделі машинного навчання. Вони конкурують, щоб надати найточніші результати для запитів валідаторів, і чим точніше результати, тим більше емісій TAO вони заробляють. Майнери вільні генерувати ці результати так, як вони бажають. Наприклад, у майбутньому цілком можливо, що майнери Bittensor раніше навчали моделі на Gensyn та використовуватимуть їх для заробітку емісій TAO.
Сьогодні більшість взаємодій відбувається безпосередньо між валідаторами та майнерами. Валідатори подають вхідні дані майнерам та запитують вихідні дані (тобто, навчання моделі). Після того як валідатори запитують майнерів у мережі та отримують їхні відповіді, вони ранжирують майнерів та подають свої рейтинги у мережу.
Взаємодія між валідаторами (покладаються на PoS) і майнерами (покладаються на Model Proof, форму PoW) відома як консенсус Yuma. Він спрямований на стимулювання майнерів виробляти найкращі результати, щоб заробити емісію TAO, і стимулювати валідаторів точно ранжувати результати майнерів, отримуючи вищі бали vtrust і збільшуючи свої винагороди TAO, таким чином формуючи механізм консенсусу для мережі.
Підмережі та додатки
Взаємодії на Bittensor, головним чином, включають у себе валідаторів, які подають запити майнерам та оцінюють їх виводи. Однак, коли якість внесення майнерів покращується та загальний рівень інтелекту мережі зростає, Bittensor створює додатковий рівень застосунків поверх існуючого стеку, щоб розробники могли будувати додатки, які запитують мережу Bittensor.
У жовтні 2023 року Bittensor представив підмережі через оновлення Revolution, зробивши значний крок до досягнення цієї мети. Підмережі - це окремі мережі на Bittensor, які стимулюють певну поведінку. Революція відкрила мережу для всіх, хто зацікавлений у створенні підмереж. Протягом кількох місяців після запуску було запущено понад 32 підмережі, включаючи підмережі для текстових підказок, збирання даних, генерації зображень і зберігання. У міру того, як підмережі дозрівають і стають готовими до продукту, творці підмереж також створюватимуть інтеграції програм, що дозволить командам створювати програми, які запитують певні підмережі. Деякі програми, такі як чат-боти, генератори зображень, боти для відповідей у Twitter і ринки прогнозів, існують, але немає жодних офіційних стимулів, крім фінансування від Фонду Bittensor, для валідаторів приймати та пересилати ці запити.
Для більш зрозумілого пояснення, нижче подано приклад того, як Bittensor може працювати, якщо додатки інтегруються в мережу.
Підмережі заробляють TAO на основі продуктивності, оціненої кореневою мережею. Коренева мережа, розташована над усіма підмережами, по суті, діє як спеціальна підмережа і управляється 64 найбільшими валідаторами підмережі за стейкінгом. Валідатори кореневих мереж ранжують підмережі на основі їх продуктивності та періодично розподіляють викиди TAO між підмережами. Таким чином, окремі підмережі діють як майнери для кореневої мережі.
Візія Bittensor
Bittensor все ще відчуває зростаючі труднощі, оскільки він розширює функціональність протоколу, щоб стимулювати генерацію інтелекту в кількох підмережах. Майнери постійно винаходять нові способи атаки на мережу для отримання більшої винагороди TAO, наприклад, дещо змінюючи вихідні висновки з високим рейтингом, що виконуються їхніми моделями, а потім надсилаючи кілька варіантів. Пропозиції щодо управління, що впливають на всю мережу, можуть бути подані та реалізовані лише Тріумвіратом, що повністю складається із зацікавлених сторін з Фонду Opentensor (примітно, що пропозиції вимагають схвалення Сенату Bittensor, що складається з валідаторів Bittensor, перед впровадженням). Токеноміка проєкту модифікується, щоб посилити стимули для використання TAO між підмережами. Проект також швидко здобув популярність завдяки своєму унікальному підходу, коли генеральний директор одного з найпопулярніших веб-сайтів зі штучним інтелектом, HuggingFace, заявив, що Bittensor повинен додати свої ресурси на сайт.
У нещодавньому статті під назвою «Парадигма Bittensor», опублікованій основними розробниками, команда описала візію Bittensor щодо того, що в кінцевому підсумку може стати «агностичним до того, що вимірюється». Теоретично це може дозволити Bittensor розвивати підмережі, які стимулюють будь-який тип поведінки, підтримуваний TAO. Існують значні практичні обмеження — основним з них є доказ того, що ці мережі можуть масштабуватися для обробки такого різноманіття процесів та те, що потенційні стимули сприяють прогресу поза централізованими продуктами.
Вищевказаний розділ надає детальний огляд різних типів децентралізованих протоколів обчислення штучного інтелекту (AI), що знаходяться на стадії розвитку. На початкових етапах розвитку і прийняття вони закладають основу для екосистеми, яка в кінцевому підсумку може сприяти створенню "будівельних блоків AI", схожих на концепцію "грошових Лего" в DeFi. Композиція бездозвільних блокчейнів дозволяє можливість будувати кожен протокол на іншому, створюючи більш комплексну децентралізовану екосистему штучного інтелекту.
Наприклад, ось як Акаш, Gensyn і Bittensor можуть всі взаємодіяти для реагування на запити щодо виведення.
Важливо розуміти, що це лише один приклад того, що може трапитися у майбутньому, а не відображення поточної екосистеми, існуючих партнерств чи потенційних результатів. Обмеження взаємодії та інші описані нижче обставини значно обмежують можливості інтеграції сьогодні. Більше того, фрагментація ліквідності та необхідність використання кількох токенів можуть шкодити користувацькому досвіду, як це зауважили засновники Akash та Bittensor.
Поза обчисленням, введено кілька інших децентралізованих інфраструктурних сервісів для підтримки зароджується екосистеми ШША в межах криптовалютного простору. Всі їх перераховувати в межах цього звіту не має сенсу, але деякі цікаві та наочні приклади включають:
Загалом ці приклади вказують на майже нескінченні можливості для дослідження децентралізованих ринкових моделей, що підтримують моделі штучного інтелекту або необхідну периферійну інфраструктуру для їх розвитку. На даний момент більшість цих проектів знаходяться на етапі доведення концепції та потребують подальших досліджень і розробки, щоб довести, що вони можуть працювати на потрібному масштабі для надання повноцінних послуг з штучного інтелекту.
Децентралізовані обчислювальні продукти все ще знаходяться на ранніх етапах розвитку. Вони тільки почали запускати передові обчислювальні можливості, здатні навчати найпотужніші моделі штучного інтелекту виробництва. Щоб отримати значну частку ринку, вони повинні продемонструвати фактичні переваги перед централізованими альтернативами. Потенційні тригери для більшої уваги включають:
Смарт-контракти є вісімкою будь-якої екосистеми блокчейну. Вони автоматично виконуються за певних умов, зменшуючи або усуваючи потребу у довірених третіх сторін, тим самим дозволяючи створення складних децентралізованих додатків, таких як у DeFi. Однак функціонал смарт-контрактів ще досить обмежений, оскільки вони працюють на основі заздалегідь встановлених параметрів, які потрібно оновлювати.
Наприклад, розумний контракт, розгорнутий для протоколу позики/позики, який містить специфікації щодо того, коли позиції повинні бути ліквідовані на підставі конкретних відношень вартості кредиту до вартості активів. Хоча корисні в статичних середовищах, ці розумні контракти потребують постійних оновлень для адаптації до змін у рівні ризику в динамічних ситуаціях, що створює виклики для контрактів, не керованих централізованими процесами. Наприклад, DAO, які покладаються на децентралізовані процеси управління, можуть не реагувати достатньо швидко на системні ризики.
Інтеграція штучного інтелекту (тобто моделей машинного навчання) в розумні контракти є потенційним способом покращення функціональності, безпеки та ефективності, покращуючи загальний досвід користувача. Однак ці інтеграції також вносять додаткові ризики, оскільки неможливо забезпечити, що моделі, що лежать в основі цих розумних контрактів, не будуть використовуватися або не зможуть інтерпретувати ситуації з довгим хвостом (з урахуванням дефіциту вхідних даних, ситуації з довгим хвостом важко навчити моделі).
Машинне навчання потребує значного обчислення для запуску складних моделей, що робить неможливим прямий запуск моделей штучного інтелекту в розумних контрактах через високі витрати. Наприклад, протокол DeFi, що пропонує моделі оптимізації доходності, знайшов би складність у запуску цих моделей on-chain без великих газових витрат. Одним із рішень є збільшення обчислювальних можливостей основного блокчейну. Однак це також підвищує вимоги до валідаторів ланцюга, що потенційно компрометує децентралізацію. Замість цього деякі проекти досліджують використання zkML для перевірки виходів в безпечний спосіб без потреби інтенсивного on-chain обчислення.
Частим прикладом, який ілюструє корисність zkML, є випадок, коли користувачам потрібно, щоб інші виконували дані через моделі та перевіряли, що їхні партнери дійсно виконали правильну модель. Розробники, які використовують децентралізовані обчислювальні постачальники для навчання своїх моделей, можуть турбуватися, що ці постачальники знизять витрати, використовуючи дешеві моделі, які виробляють вихідні дані з майже непомітними відмінностями. zkML дозволяє постачальникам обчислень виконувати дані через свої моделі, а потім генерувати докази, які можна перевірити on-chain, доводячи, що вихідні дані моделі для заданих вхідних даних є правильними. У цьому сценарії постачальник моделі отримує додаткову перевагу у тому, що він може пропонувати свою модель, не розкриваючи базові ваги, які виробили вихідні дані.
Звісно, можливий і протилежний варіант. Якщо користувачі хочуть запускати моделі на своїх даних, але не бажають надавати доступ до своїх даних проектам моделей через обмеження конфіденційності (наприклад, при медичних обстеженнях або власній бізнес-інформації), вони можуть запускати модель на своїх даних, не ділитися даними, а потім підтверджувати через докази, що вони запустили правильну модель. Ці можливості значно розширюють простір для розробки інтеграції функцій штучного інтелекту та смарт-контрактів, розв'язуючи великі обчислювальні обмеження.
З огляду на ранній стан галузі zkML, розробка в першу чергу зосереджена на створенні інфраструктури та інструментів, необхідних командам для перетворення своїх моделей і результатів у докази, які можна перевірити в мережі. Ці продукти максимально абстрагуються від аспектів нульового знання.
EZKL та Giza - це два проекти, які будують такі інструменти, надаючи перевірені докази виконання моделі навчання машин. Обидва допомагають командам створювати моделі навчання машин, щоб забезпечити виконання цих моделей таким чином, щоб результати можна було перевірити у ланцюжку сподіваною довірою. Обидва проекти використовують Open Neural Network Exchange (ONNX), щоб конвертувати моделі навчання машин, написані мовами загального призначення, такими як TensorFlow та Pytorch, у стандартний формат. Потім вони виводять версії цих моделей, які також генерують докази zk під час виконання. EZKL є відкритим джерелом, що виробляє zk-SNARKs, тоді як Giza є закритим джерелом, виробляючи zk-STARKs. Обидва проекти наразі сумісні лише з EVM.
Останнім часом EZKL зробив значний прогрес у вдосконаленні рішень zkML, зосереджуючись переважно на зменшенні витрат, підвищенні безпеки та прискоренні генерації доказів. Наприклад, в листопаді 2023 року EZKL інтегрував нову відкриту бібліотеку GPU, яка зменшила час агрегації доказів на 35%; в січні EZKL випустив Lilith, програмне рішення для інтеграції високопродуктивних обчислювальних кластерів та оркестрації одночасних систем завдань під час використання доказів EZKL. Унікальність Giza полягає в наданні інструментів для створення перевірних моделей машинного навчання та планується реалізувати веб3 еквівалент Hugging Face, відкривши користувацький ринок для співпраці та обміну моделями zkML, а також підключення децентралізованих обчислювальних продуктів. У січні EZKL опублікував порівняльну оцінку продуктивності EZKL, Giza та RiscZero (як описано нижче), демонструючи швидші часи доказів та використання пам'яті.
В даний час Modulus Labs розробляє нову технологію доказу з нульовим розголошенням (zk), спеціально розроблену для моделей штучного інтелекту. Modulus випустила документ під назвою «Інтелектуальна вартість», з якого випливає, що запуск моделей штучного інтелекту в ланцюжку несе непомірно високі витрати. У цьому документі, опублікованому в січні 2023 року, проводиться порівняльний аналіз існуючих систем доказів zk, щоб визначити покращення можливостей доказів zk і вузькі місця в моделях штучного інтелекту. Це показує, що поточні продукти занадто дорогі та неефективні для великомасштабних застосувань штучного інтелекту. Ґрунтуючись на початкових дослідженнях, у листопаді Modulus запустив Remainder, спеціалізований професор zk, спрямований на скорочення вартості та часу перевірки моделей штучного інтелекту, що робить проєкти економічно життєздатними для великомасштабної інтеграції в смарт-контракти. Їхня робота є пропрієтарною, що унеможливлює порівняльний аналіз зі згаданими рішеннями, але нещодавно вона була процитована в блозі Віталіка про криптографію та штучний інтелект.
Розробка інструментів та інфраструктури має вирішальне значення для майбутнього зростання простору zkML, оскільки вона може значно зменшити тертя, пов'язані з розгортанням перевірених офчейн-обчислень, і потребу в командах zk. Створення безпечних інтерфейсів для некрипто-нативних практиків машинного навчання, щоб перенести свої моделі в ланцюжок, дозволить додаткам експериментувати з дійсно новими сценаріями використання. Крім того, ці інструменти усувають серйозну перешкоду для ширшого впровадження zkML: відсутність обізнаних розробників, зацікавлених у роботі на перетині нульового розголошення, машинного навчання та криптографії.
Інші рішення, які розробляються, відомі як «співпроцесори» (зокрема, RiscZero, Axiom та Ritual), виконують різні ролі, включаючи перевірку поза-ланцюжкових обчислень в ланцюжку. Як EZKL, Giza та Modulus, їхня мета полягає в тому, щоб абстрагувати процес генерації доказів zk повністю, створюючи віртуальні машини з нульовими знаннями, які можуть виконувати поза-ланцюжкові програми та генерувати перевірні докази в ланцюжку. RiscZero та Axiom обслуговують прості моделі штучного інтелекту як більш загальнопризначені співпроцесори, тоді як Ritual побудований спеціально для використання з моделями штучного інтелекту.
Перший екземпляр Ritual, Infernet, включає Infernet SDK, який дозволяє розробникам надсилати запити на висновок у мережу та отримувати натомість вихідні дані та необов'язкові докази. Вузли Infernet обробляють ці офчейн-обчислення, перш ніж повертати виходи. Наприклад, DAO може створити процес, який гарантує, що всі нові пропозиції щодо управління відповідають певним передумовам перед подачею. Щоразу, коли подається нова пропозиція, контракт на управління запускає запит на висновок через Infernet, викликаючи модель штучного інтелекту, навчену спеціально для управління DAO. Ця модель розглядає пропозицію, щоб переконатися, що всі необхідні стандарти дотримані, і повертає результати та докази для схвалення або відхилення подання пропозиції.
Протягом наступного року команда Ritual планує ввести додаткові функції, утворюючи інфраструктурний шар, відомий як суперланцюг Ritual. Багато проектів, які обговорювалися, можуть бути інтегровані як постачальники послуг до Ritual. Команда Ritual вже інтегрувалася з EZKL для генерації доказів і може незабаром додати функції від інших провідних постачальників. Вузли Infernet на Ritual також можуть використовувати графічні процесори Akash або io.net та запитувати моделі, навчені в підмережі Bittensor. Їхнім кінцевим цілям є стати перевідним постачальником відкритої ШІ для надання послуг з машинного навчання та інших завдань, пов'язаних з ШІ, для будь-якої мережі та будь-якого робочого завдання.
zkML сприяє у вирішенні дихотомії між блокчейном, який має обмежені ресурси за природою, і штучним інтелектом, який вимагає значних обчислювальних та даних ресурсів. Як зазначив засновник Giza, "сценарії використання надзвичайно різноманітні... Це трохи нагадує запитання про сценарії використання для смарт-контрактів на початкових етапах Ethereum... Те, що ми робимо, це просто розширює сценарії використання для смарт-контрактів." Однак, як відзначено, поточний розвиток в основному відбувається на рівні інструментів та інфраструктури. Додатки все ще перебувають на експериментальній стадії, і команди стикаються з викликом довести, що вартість, генерована впровадженням моделей з zkML, переважає їх складність та витрати.
Поточні застосування включають:
zkML залишається експериментальним, більшість проектів спрямовані на побудову інфраструктурних примітивів та концепційних доказів. Поточні виклики включають обчислювальні витрати, обмеження пам'яті, складність моделі, обмежені інструменти та інфраструктура, талант розробника. Коротко кажучи, потрібно виконати значну кількість роботи, перш ніж zkML може бути впроваджено в масштабах, необхідних для споживчих продуктів.
Однак, по мірі того, як галузь стане дорослою і ці обмеження будуть вирішені, zkML стане ключовою складовою інтеграції штучного інтелекту з криптографією. Фактично, zkML обіцяє привести будь-який масштаб обчислень поза ланцюжком на ланцюжок, зберігаючи ті ж самі або схожі гарантії безпеки, що й обчислення на ланцюжку. Проте, перед тим як ця мрія здійсниться, ранні прихильники технології продовжуватимуть балансувати приватність та безпеку zkML з ефективністю альтернатив.
Агенти штучного інтелекту
Одним із найцікавіших поєднань штучного інтелекту та криптовалюти є тривалий експеримент з агентами штучного інтелекту. Агенти - це автономні роботи, які можуть отримувати, тлумачити та виконувати завдання за допомогою моделей ШІ. Це може варіюватися від наявності особистого помічника у будь-який час, налаштованого під ваші уподобання, до найму фінансового агента для управління та коригування вашого інвестиційного портфеля на основі ваших ризикових уподобань.
Оскільки криптовалюта пропонує інфраструктуру для проведення оплати без дозволу та бездовіркову, агенти та криптовалюта можуть бути добре інтегровані. Після навчання агенти матимуть гаманець, що дозволить їм проводити транзакції самостійно за допомогою смарт-контрактів. Наприклад, сьогоднішні агенти можуть здобувати інформацію в Інтернеті, а потім торгувати на ринках прогнозування на основі моделей.
Morpheus - один із останніх проектів відкритого коду агента, запущений у 2024 році на Ethereum та Arbitrum. Його біла книга була опублікована анонімно у вересні 2023 року, надаючи основу для формування та розвитку спільноти, включаючи відомі фігури, такі як Ерік Воргіс. У білій книзі є можливість завантаження протоколу розумного агента, відкритого LLM, який може працювати локально, керуваний гаманцем користувача та взаємодіяти з розумними контрактами. Він використовує рейтинги розумних контрактів для допомоги агентам визначити, з якими розумними контрактами можна безпечно взаємодіяти на основі критеріїв, таких як кількість оброблених транзакцій.
Біла книга також надає рамки для побудови мережі Morpheus, включаючи структури стимулювання та інфраструктуру, необхідну для запуску протоколу розумного агента. Це включає стимули для учасників у побудові фронтендів для взаємодії з агентами, API для розробників у побудові плагін-агентів для взаємодії, та хмарні рішення для користувачів отримати доступ до обчислень та сховищ, необхідних для запуску агентів на пристроях на межі. Початкове фінансування проекту було запущене в початковому лютому, а повний протокол очікується запустити в другому кварталі 2024 року.
Децентралізована автономна мережа інфраструктури (DAIN) - це новий протокол інфраструктури агента, який будує економіку від агента до агента на Solana. Метою DAIN є забезпечення можливості агентам з різних підприємств безперешкодно взаємодіяти один з одним через загальний API, значно відкриваючи простір для проектування для агентів штучного інтелекту, фокусуючись на агентах, які можуть взаємодіяти як з продуктами web2, так і з продуктами web3. У січні DAIN оголосив про своє перше партнерство з Asset Shield, що дозволяє користувачам додавати «підписантів агентів» до своїх мультіпідписів, здатних інтерпретувати транзакції та схвалювати / відхиляти їх на основі правил, встановлених користувачем.
Fetch.AI - один з перших розгорнутих протоколів штучного інтелекту та розвинув екосистему для створення, розгортання та використання агентів on-chain за допомогою токенів FET та гаманців Fetch.AI. Протокол пропонує повний набір інструментів та додатків для використання агентів, включаючи функції гаманця для взаємодії та замовлення агентів.
Autonolas, заснований колишніми членами команди Fetch, є відкритим ринком для створення та використання децентралізованих штучних інтелектуальних агентів. Autonolas також надає набір інструментів для розробників для створення хостованих позаланцюгових штучних інтелектуальних агентів, які можуть підключатися до декількох блокчейнів, включаючи Polygon, Ethereum, Gnosis Chain та Solana. У них наразі є деякі активні концепції продуктів агентів, включаючи для прогностичних ринків та управління DAO.
SingularityNet будує децентралізований ринок для штучного інтелекту, де можуть бути розгорнуті спеціалізовані агенти штучного інтелекту, які можуть бути найняті іншими агентами для виконання складних завдань. Інші компанії, такі як AlteredStateMachine, розробляють інтеграції агентів штучного інтелекту з NFT. Користувачі мінтують NFT з випадковими характеристиками, які надають їм переваги та недоліки при виконанні різних завдань. Цих агентів потім можна навчати покращувати певні характеристики для використання в гральній сфері, DeFi або як віртуальні помічники та торгувати ними з іншими користувачами.
Загалом, ці проекти уявляють майбутню екосистему агентів, здатних спільно працювати не лише для виконання завдань, а й для допомоги у побудові загального штучного інтелекту. Справжні складні агенти матимуть здатність автономно завершувати будь-яке користувацьке завдання. Наприклад, повністю автономні агенти зможуть зрозуміти, як найняти іншого агента для інтеграції API, а потім виконати завдання без необхідності переконатися, що агент вже інтегрувався з зовнішніми API (наприклад, веб-сайтами бронювання подорожей) перед використанням. З погляду користувача немає потреби перевіряти, чи може агент виконати завдання, оскільки агент може визначити це самостійно.
У липні 2023 року Lightning Labs запустили реалізацію концепції використання агентів в мережі Lightning, яку назвали біткоїн-набором від LangChain. Цей продукт особливо цікавий, оскільки він має на меті вирішити проблему, яка стає все більш гострою в світі Web 2 - обмежені та дорогі ключі API веб-додатків.
LangChain вирішує цю проблему, надаючи розробникам набір інструментів, які дозволяють агентам купувати, продавати та утримувати Bitcoin, а також запитувати ключі API та відправляти мікроплатежі. На традиційних платіжних маршрутах мікроплатежі є надто дорогими через комісії, але на мережі Lightning агенти можуть щоденно відправляти необмежену кількість мікроплатежів за мінімальну вартість. Коли використовується разом із фреймворком L402 для вимірювання платежів API LangChain, компанії можуть налаштовувати витрати на доступ до своїх API в залежності від збільшення та зменшення використання, а не встановлювати один дорогий стандарт.
У майбутньому ланцюжкові дії будуть переважно визначатися взаємодією між агентами та агентами, що потребує механізмів забезпечення можливості взаємодії агентів один з одним без заборонення витрат. Цей ранній приклад демонструє потенціал використання агентів на бездозвільних та економічно ефективних платіжних шляхах, відкриваючи можливості для нових ринків та економічної взаємодії.
Сфера агентів все ще знаходиться на початковому етапі. Проекти тільки почали запускати функціональних агентів, які можуть обробляти прості завдання - доступ зазвичай обмежений досвідченими розробниками та користувачами. Однак з часом одним з найбільш значущих впливів штучних інтелектуальних агентів на криптовалюту буде покращення користувацького досвіду у всіх вертикалях. Транзакції почнуть переходити з кліків на текст, що дозволить користувачам взаємодіяти з агентами on-chain через розмовні інтерфейси. Команди, такі як Dawn Wallet, вже запустили чат-бот гаманці, що дозволяє користувачам взаємодіяти on-chain.
Крім того, залишається невідомим, як агенти будуть працювати в Web 2, оскільки фінансові засоби ґрунтуються на регульованих банківських установах, які не можуть працювати цілодобово або забезпечити безперешкодні міжнародні транзакції. Як підкреслила Лін Алден, відсутність повернень та здатність обробляти мікротранзакції робить криптовалютні засоби особливо привабливими порівняно з кредитними картками. Однак, якщо агенти стануть більш поширеним засобом здійснення транзакцій, ймовірно, існуючі провайдери платежів та додатки швидко адаптуються, впроваджуючи інфраструктуру, необхідну для роботи на існуючих фінансових засобах, тим самим зменшуючи деякі переваги використання криптовалют.
На даний момент агенти можуть бути обмежені детермінованими криптовалютними транзакціями, де певний вхід гарантує певний вихід. Обидва моделі описали здатність цих агентів знаходити способи виконання складних завдань, а інструменти розширюють спектр завдань, які вони можуть виконати, обидва ці аспекти потребують подальшого розвитку. Щоб криптовалютні агенти стали корисними поза новаторськими використаннями криптовалют на ланцюжку блоків, потрібна більш широка інтеграція та прийняття криптовалюти як форми оплати, разом із чіткістю регулювання. Однак, по мірі розвитку цих компонентів, агенти готові стати одними з найбільших споживачів децентралізованого обчислення та рішень zkML, автономно отримуючи та вирішуючи будь-яке завдання недетермінованим чином.
Штучний інтелект вносить у криптовалюту ті ж інновації, які ми бачили у web2, покращуючи все від розвитку інфраструктури до користувацького досвіду та доступності. Однак проекти все ще знаходяться на ранніх етапах розвитку, і найближча інтеграція криптовалюти та штучного інтелекту в основному буде здійснюватися за допомогою офлайн інтеграцій.
Продукти, такі як Copilot, призначені для «збільшення продуктивності розробника в 10 разів», і платформи 1-го рівня та додатки DeFi вже запустили платформи розробки з підтримкою штучного інтелекту у співпраці з великими компаніями, такими як Microsoft. Компанії, такі як Cub3.ai та Test Machine, розробляють інтеграції штучного інтелекту для аудиту смарт-контрактів та моніторингу загроз у реальному часі для підвищення безпеки на ланцюжку. Чат-боти LLM навчаються на ланцюжкових даних, документації протоколу та додатках для надання користувачам покращеної доступності та досвіду користувача.
Викликом для більш розширених інтеграцій, що дійсно використовують основну технологію криптовалют, залишається довести, що впровадження рішень зі штучного інтелекту on-chain технічно й економічно доцільне. Розвиток децентралізованого обчислення, zkML та AI-агентів вказує на перспективні вертикалі, що закладають основу для глибоко взаємопов'язаного майбутнього криптовалют та штучного інтелекту.