Пересылка оригинального заголовка 'AI and Verifiability'
Поскольку системы искусственного интеллекта все чаще интегрируются с блокчейн-экосистемами, обеспечение верифицируемости результатов работы искусственного интеллекта становится угловым камнем для поощрения доверия, прозрачности и ответственности. Это особенно важно для децентрализованных финансов (DeFi) и приложений подтверждения личности, где точность и надежность могут напрямую влиять на финансовые результаты, решения управления и идентификацию пользователей.
Аргументы в пользу проверяемого искусственного интеллекта в децентрализованных системах
Гарантирует, что процессы принятия решений являются прозрачными и понятными. Заинтересованные стороны получают представление о том, какие выводы были сделаны, что является важным, когда решения влияют на транзакции в блокчейне или крупномасштабное управление.
Отслеживает данные, параметры и архитектуры моделей, используемые для генерации прогнозов искусственного интеллекта. Установление происхождения позволяет пользователям знать, откуда взялись тренировочные данные и какие модели были задействованы, повышая доверие и сокращая вероятность распространения дезинформации.
Подтверждает, что конечные выводы искусственного интеллекта являются точными и неизмененными. В децентрализованном контексте это часто включает механизмы подтверждения (например, доказательства с нулевым разглашением, согласование выборки), чтобы обеспечить, что вычисления или выводы не были изменены вне цепи.
Проблемы верификации On-Chain AI
Хотя блокчейны отлично справляются с обеспечением неизменных регистров и распределенного доверия, вычисления искусственного интеллекта на цепи могут быть чрезвычайно дорогими. Например, умножение матрицы на 1000×1000 целых чисел может потреблять миллиарды газа, превышая текущий блочный газовый лимит Ethereum (Zheng et al., 2021). В результате большинство проектов по искусственному интеллекту полагаются на внеблочные вычисления с проверкой на цепи.
Однако подходы вне цепи вводят новые вызовы:
Потенциальный мошенничество: Без надежной верификации злоумышленники могут представлять неверные или измененные данные.
Слабые места централизованные: Зависимость от оффчейн оракулов или частных серверов может подорвать децентрализованную этику, приведя к цензуре или единичным точкам отказа.
Следовательно, новые решения направлены на поддержание высокой производительности при внедрении криптографической или образцовой верификации, обеспечивая баланс эффективности и децентрализации.
EigenLayer - это протокол повторного стекинга, который позволяет валидаторам Ethereum «переставлять» свои ETH для обеспечения дополнительных децентрализованных служб, известных как активно валидируемые службы (AVS). Вместо того чтобы нужен новый набор валидаторов для каждой специализированной задачи (например, валидация искусственного интеллекта, операции межцепочные), EigenLayer повторно использует надежную и децентрализованную сеть валидаторов Ethereum.
EigenLayer улучшает безопасность, позволяя новым службам активной проверки (AVS) подключаться к существующему набору валидаторов Ethereum. Этот набор валидаторов уже большой, обладает достаточным капиталом и географически распределен, предлагая надежные криптоэкономические гарантии без необходимости создавать новую сеть с нуля.
Активировав restaking, EigenLayer значительно снижает операционные издержки. Проектам больше не нужно создавать и поддерживать свои собственные валидаторские экосистемы, что снижает как инфраструктурные затраты, так и барьеры для запуска новых децентрализованных сервисов on-chain.
Кроме того, система предлагает высокую гибкость. AVS может настраивать свою собственную логику согласования и проверки, сохраняя при этом базовый уровень безопасности Ethereum, что делает EigenLayer идеальным фундаментом для модульных, безопасных и масштабируемых децентрализованных приложений.
Hyperbolic Labs представляет Proof of Sampling (PoSP), эффективную, масштабируемую альтернативу традиционным zkML или оптимистическим доказательствам мошенничества для валидации ИИ. Этот новый протокол верификации на основе выборки обеспечивает доверие пользователей к результатам их моделей, обучаемых и запускаемых нашей децентрализованной сетью GPU. Этот протокол, известный как Proof of Sampling (PoSP), является новым золотым стандартом для верификации в области искусственного интеллекта.
Разработанный командой Hyperbolic при сотрудничестве с исследователями из Университета Калифорнии в Беркли и Колумбийского университета, PoSP использует теорию игр для обеспечения безопасности децентрализованных систем. Он проверяет стратегическую выборку результатов и реализует процесс арбитража для нечестных узлов с целью стимулировать 100% честное поведение во всей сети.
Proof of Spontaneous Proofs (PoSP) предлагает несколько ключевых преимуществ: он обеспечивает эффективную верификацию за счет добавления менее 1% вычислительных накладных расходов, позволяя узлам поддерживать скорость работы близкую к исходной. Его надежная безопасность обеспечивает добросовестное поведение участников, так как случайные проверки делают мошенничество слишком рискованным, чтобы было стоящим. Через игровые инцентивы, PoSP создает чистую стратегическую равновесие Нэша, где честное поведение всегда является рациональным выбором. Наконец, PoSP легко масштабируется для AI-сервисов, способен поддерживать масштабные децентрализованные рабочие нагрузки для искусственного интеллекта, обеспечивая проверяемость и доверие высокопроизводительных вычислительных и выводных процессов.
Случайные проверки: Поворачивающийся набор валидаторов (через EigenLayer) регулярно выбирает и проверяет вычисления искусственного интеллекта. Эта непрерывная верификация предотвращает систематическое мошенничество.
Равновесие Нэша Инцентивы: Злонамеренное поведение экономически нецелесообразно для валидаторов - нечестные или несогласованные выводы приводят к штрафам.
Высокая пропускная способность: более низкие накладные расходы PoSP делают его хорошо подходящим для случаев использования, требующих быстрых, частых выводов искусственного интеллекта.
В отличие от других децентрализованных решений в области искусственного интеллекта, когда вы запускаете вывод на децентрализованной сети Hyperbolic, вы можете быть уверены, что получаете действительный результат.
Интегрируя PoSP в EigenLayer, децентрализованные службы искусственного интеллекта могут достичь безопасной, минимизированной доверия структуры, способной обрабатывать растущее количество запросов на вывод без ущерба для децентрализации или экономичности.
Случайная валидация: Валидаторы выбираются случайным образом для проверки выводов, обеспечивая беспристрастные результаты.
Масштабируемая поддержка AVS: PoSP снижает вычислительные требования, позволяя EigenLayer обеспечивать эффективную защиту крупномасштабных сервисов.
Противодействие мошенничеству: Строгие наказания делают нечестность невыгодной, в то время как честное поведение остается оптимальной стратегией.
Протокол EigenLayer, совмещенный с нашим протоколом Proof of Sampling, фундаментально преобразует способ обеспечения безопасности децентрализованных сервисов. Теперь мы предлагаем масштабируемую, надежную и защищенную от мошенничества инфраструктуру за долю стоимости. - Джаспер Чжан, CEO Hyperbolic
Прочтите полную статью о PoSP здесь
Сеть Mira нацелена на решение фундаментальной проблемы в области искусственного интеллекта, которая заключается в склонности крупных языковых моделей (LLM) к генерации неверной информации. Разработанный для снижения галлюцинаций и максимизации точности вывода без участия человека, Mira использует децентрализованную сеть независимых узлов для доверительной проверки выводов искусственного интеллекта параллельно.
В архитектуре Mira три шага
Бинаризация
Процесс разбиения выходных данных на более простые «заявки».
Распределенная верификация
Данные утверждения подтверждаются сетью узлов-подтверждателей, которые запускают специализированные модели для проверки утверждений. Проверка выполняется в формате вопросов с множественным выбором. Утверждения для проверки случайным образом разделены между подтверждающими, что затрудняет сговор.
Доказательство-Проверка
Гибридный механизм консенсуса, который комбинирует Proof-of-Work (PoW) и Proof-of-Stake (PoS), используется. Каждому проверяющему необходимо делать ставку, чтобы принять участие в верификации. Такой подход гарантирует, что проверяющие фактически выполняют вывод, а не просто утверждают. Ставка проверяющего будет сокращена, если выход оказывается постоянно отклоняющимся от консенсуса.
После достижения консенсуса сетью по выводу генерируется криптографический сертификат и записывается в блокчейн, создавая неизменную запись проверенных фактов.
Источник:Белая книга сети Mira
Конфиденциальность является ключевым аспектом дизайна Mira. Учитывая, что заявки распределены случайным образом, одному оператору узла невозможно восстановить исходный вывод. Кроме того, ответы на проверку от независимых проверяющих остаются конфиденциальными до достижения консенсуса, что предотвращает утечку информации.
Mira стремится проверять все более сложный контент, включающий в себя код, структурированные данные и мультимедийный контент. В будущем Mira также будет восстанавливать недопустимый контент при его обнаружении, достигая точности и скорости в выводе искусственного интеллекта. В конечном итоге Mira Network сможет накапливать экономически обеспеченные факты, создавая базу данных для проверки фактов.
По мере роста использования сети - увеличение сбора комиссий - лучшие награды за верификацию - привлечение большего количества узловых операторов - улучшение точности, стоимости и задержки при верификации ответов
Atoma - это децентрализованная, частная и верифицируемая сеть выполнения искусственного интеллекта, работающая на основной сети Sui. Основная архитектура состоит из трех элементов: (a) вычислительный слой; (b) слой верификации; и (c) слой конфиденциальности.
Уровень вычислений
Глобальная сеть узлов выполнения, обрабатывающая запросы на вывод. Большое количество узлов доступно благодаря работе с различными центрами обработки данных и краевыми устройствами, такими как цифровые устройства отдельных лиц.
С Atoma модельные веса доступны локально на узлах, увеличивая скорость вывода при получении запроса. Кроме того, полученные запросы направляются на наиболее подходящий узел, соответствующий задаче с соответствующей производительностью и стоимостью.
Atoma фокусируется на оптимизации эффективности выполнения выводов через несколько функций, включая FlashAttention и Paged Attention, что вместе способствует снижению вычислительной нагрузки.
Слой верификации
Целостность вычислений подтверждается путем согласования выборки. Это процесс, при котором узлы выбираются случайным образом для выполнения вывода и генерации криптографического хеша вывода. Если все хеши, сгенерированные выбранным набором узлов, совпадают, вывод вывода проверен. Если существует расхождение между сгенерированными хешами, сеть найдет нечестный узел, который будет наказан путем снижения его доли.
Вероятность того, что злонамеренный злоумышленник сможет контролировать половину или более всей GPU-мощности сети, чтобы обмануть систему, очень низкая и становится еще сложнее по мере масштабирования узловой сети. Количество выбранных узлов для выборки гибкое, для задач с более высоким стейком может быть выбрано большее количество узлов.
Слой конфиденциальности
Atoma делает упор на обеспечение безопасности и конфиденциальности пользовательских данных, выполняя вычисления в доверенной исполнительной среде (TEE). Данные, введенные пользователями, зашифрованы и расшифровываются только в TEE. Это предотвращает просмотр данных пользователей другими участниками блокчейна. После выполнения вывода он зашифрован, прежде чем возвращается пользователям.
Несмотря на то, что это безопасное решение, стоит отметить, что оно имеет компромисс в виде более высоких накладных расходов на вычисления, что может привести к более высоким комиссиям для пользователей.
Подобно Atoma Network выше, Aizel Network выбирает подход на основе TEE. Разница здесь заключается в том, что Aizel интегрировал Multi-Party Computation (MPC) в свой рабочий процесс, где задачи вывода маршрутизируются на различные TEE. Это направлено на децентрализацию сети, обеспечивая возможность вывода даже в том случае, если один из TEE взломан или вышел из строя.
Fortytwo чемпиона модель «растительного вывода», построенную вокруг маленьких, специализированных моделей (SLM). Вместо того чтобы полагаться на один огромный монолитный ИИ, сеть оркестрирует несколько моделей, запущенных участниками, каждая из которых настроена на конкретные задачи или области. Эти модели работают параллельно, проверяя, уточняя и перепроверяя результаты друг друга, чтобы обеспечить более точные и надежные выводы.
Эта децентрализованная структура решает проблемы, с которыми часто сталкиваются одиночные крупные модели, такие как узкие места в обучении, затратные аппаратные требования и единичные точки отказа. Распределяя интеллект по множеству меньших моделей и участников, Fortytwo обеспечивает как масштабируемость, так и отказоустойчивость.
Инициализация с учетом намерений
Перед началом любой задачи участники определяют цель, бюджет и ограничения. Такой подход выравнивает каждое SLM с общей миссией—будь то резюмирование текста, анализ кода или любое другое специализированное умозаключение.
Специализации, определенные участниками
Операторы отдельных узлов привносят свои собственные настроенные модели в сеть. Они сохраняют полный контроль над весами, смещениями и собственными данными, обеспечивая конфиденциальность для каждого владельца модели. Эти специализированные модели могут сосредоточиться на таких областях, как анализ настроения, разбор юридического текста или даже генерация кода, специфичного для области.
Конфиденциальность весов и смещений
Один из ключевых аспектов Gate состоит в том, что участники не обязаны делиться внутренностями исходной модели. С сетью совместно используются только результаты вывода. Такой подход сохраняет интеллектуальную собственность каждого владельца модели и помогает смягчить риски, связанные с раскрытием конфиденциальных данных.
Многопользовательское сотрудничество SLM
Задачи распределяются между 7–8 (или более) специализированными SLM, каждый из которых предоставляет уникальную областную перспективу. Разделяя более крупные задачи на более мелкие подзадачи, сеть более эффективно использует преимущества каждой модели.
Плоская смесь экспертов (MoE)
Вместо того, чтобы укладывать подэкспертов в несколько уровней, Fortytwo использует подход "плоского" MoE, где каждая модель обрабатывает данные независимо. Этот дизайн может быть особенно эффективным, поскольку он избегает сложности иерархического гейтинга, позволяя экспертам сосредотачиваться исключительно на своих соответствующих подзадачах.
Коллективное обнаружение ошибок
Оценка коллег играет ключевую роль в поддержании точности вывода. Когда модели расходятся, сеть выявляет расхождения для более глубокого анализа. Этот процесс перекрестной проверки критичен для раннего выявления ошибок и обеспечения высококачественного вывода.
Оборудование для потребителей
Fortytwo оптимизирован для устройств, таких как Apple Silicon и RTX GPU, снижая барьеры стоимости и расширяя базу потенциальных операторов узлов. Такой подход демократизирует искусственный интеллект, позволяя большему числу людей, а не только крупным центрам обработки данных, участвовать в этом процессе.
Кластеры развертывания
Многие операторы узлов выбирают облачные платформы (например, AWS) или самостоятельно разворачиваемые кластеры, чтобы минимизировать задержку. Хорошо скоординированные кластеры становятся особенно ценными в ситуациях, где даже небольшие задержки могут значительно повлиять на пользовательский опыт.
Растущее участие
Тысячи участников проявили интерес к запуску узлов вывода, создавая разнообразную и распределенную сеть. Это расширение добавляет больше вычислительных ресурсов в сеть, дополнительно увеличивая пропускную способность и устойчивость.
Вклады модели типа Википедии
Подобно тому, как редакторы Википедии сотрудничают над статьями, каждый оператор узла может улучшить или настроить специализированные модели и обмениваться улучшенными методами вывода. Это коллективное обслуживание и совершенствование способствует непрерывной инновации и повышает общий интеллект сети.
Lagrange находится на передовой в использовании технологии Zero-Knowledge (ZK) для обеспечения верифицируемости искусственного интеллекта. Их девиз - "Будущее искусственного интеллекта - это ZK, а будущее человечества - Lagrange" - подчеркивает убеждение, что по мере развития искусственного интеллекта в сторону сверхинтеллекта нам необходимо обеспечить прозрачность и доверие в функционирование этих моделей.
DeepProve: Высокопроизводительный zkML
Избавляясь от взаимодействий искусственного интеллекта в стиле "черного ящика", Лагранж гарантирует, что пользователи не должны слепо доверять искусственному интеллекту. В децентрализованных средах, где минимизация доверия играет ключевую роль, криптографическое обеспечение целостности модели и правильности вывода становится важным.
Более того, Inference Labs действует как прикладная часть Lagrange, соединяя исследования и практические внедрения. В то время как Lagrange сосредотачивается на основных криптографических и схемотехнических разработках, Inference Labs гарантирует, что эти новшества готовы к производству.
Интеграции в реальном мире
Внедряет zkML в существующие конвейеры машинного обучения, сосредотачиваясь на секторах, таких как DeFi, игры, здравоохранение и происхождение поставок.
Сотрудничает с лидерами отрасли для тестирования новых функций Лагранжа в реальных условиях (например, большое количество параметров, строгие требования к задержке).
EZKL - это открытая система для создания проверяемого искусственного интеллекта и аналитики с использованием доказательств нулевого разглашения (ZKPs). Она позволяет разработчикам доказать, что модели искусственного интеллекта были выполнены правильно, не раскрывая чувствительные данные или собственные детали модели. Вдохновленная системами, такими как Apple Face ID, EZKL расширяет неприкосновенную безопасность модели на любую модель на любом устройстве, не полагаясь на специализированные аппаратные средства, такие как TEEs.
Инфраструктура нулевого доказательства
EZKL автоматизирует весь цикл жизни ZKP - от компиляции модели до генерации и проверки доказательств. Пользователи предоставляют модели искусственного интеллекта в формате ONNX, которые EZKL компилирует в цепи, дружественные к ZK, с использованием оптимизированной версии системы доказательства Halo2. Затем система генерирует криптографические доказательства правильного выполнения модели, которые можно проверить на любом устройстве.
Этот криптографический процесс обеспечивает децентрализованное доверие в высокоорискованных приложениях ИИ, таких как финансовое принятие решений, биометрическая аутентификация и проверка выводов в реальном времени.
Коллаборативные SNARKs (Cosnarks)
Недавно EZKL представила Совместные SNARKs (cosnarks), позволяя двум сторонам — таким как владелец модели и владелец данных — совместно генерировать доказательство ZK, не разглашая свои конфиденциальные активы. В отличие от делегированных систем доказательства MPC, cosnarks устраняют дополнительные доверенные предположения, ограничивая вычисления только участвующим сторонам.
Этот прогресс позволяет использовать сценарии, такие как частная кредитная оценка, конфиденциальные стратегии торговли и верификация личности с нулевым знанием. Реализация использует оптимизированную для 2PC библиотеку MPC Renegade и интегрируется непосредственно в Lilith, облачный слой оркестровки EZKL.
Поддержка моделей и гибкость
EZKL поддерживает широкий спектр архитектур искусственного интеллекта и машинного обучения, включая CNN, RNN, трансформеры в стиле GPT, деревья решений и стабильные диффузионные модели. Любую модель, совместимую со стандартом ONNX, можно преобразовать в ZK-схему.
Абстрагируя логику модели в математические схемы, EZKL обеспечивает конфиденциальное выводы в различных отраслях, таких как финансы, здравоохранение и идентификация. Деревья логики, механизмы внимания и операции над матрицами крупного масштаба поддерживаются в рамках, поддерживаемых Halo2.
Опыт разработчика
EZKL придает приоритет доступности и абстрагированию сложности. Разработчикам не требуется предварительных знаний криптографии, опыта проектирования схем или продвинутых навыков DevOps. Система предлагает привязки в CLI, Python, JavaScript и Rust, что облегчает встраивание ZK рабочих процессов в существующие конвейеры ML.
Автоматическое создание ограничений, упрощенные команды доказательств и безупречная интеграция с инструментами оркестровки позволяют разработчикам сосредоточиться исключительно на логике приложения.
ORA - это цепно-независимый протокол оракулов, который соединяет искусственный интеллект и блокчейн, позволяя разработчикам создавать полностью децентрализованные приложения, работающие на проверяемом машинном обучении. Через свою инфраструктуру ORA предоставляет возможность использования выводов искусственного интеллекта, генерации контента и выполнения сложных вычислений непосредственно на цепи, устраняя зависимость от внешних API или централизованных вычислений. Его основное новшество заключается в сочетании выполнения искусственного интеллекта с криптографическими доказательствами, создавая программируемые конвейеры искусственного интеллекта с встроенной верификацией.
Протокол позволяет любому разработчику создавать приложения, в которых выводы искусственного интеллекта — будь то ответ модели языка, сгенерированное изображение или проверенное утверждение — могут быть встроены в смарт-контракты с гарантией проверяемости и корректности.
Onchain AI Oracle (OAO)
Onchain AI Oracle (OAO) - флагманский продукт ORA. Он позволяет смарт-контрактам запрашивать, получать и действовать на основе результатов выводов искусственного интеллекта, запущенных внецепочно, но проверенных и урегулированных в цепочке. Разработчики могут вызывать задание вывода искусственного интеллекта через сеть opML ORA. Результат возвращается через функцию обратного вызова в контракте пользователя, делая цепочные приложения нативными для искусственного интеллекта и полностью автономными.
OAO поддерживает несколько крупных моделей - такие как LLaMA3, Stable Diffusion, OpenLM Chat/Score - работающих через проверяемую инфраструктуру. Разработчики могут интегрировать OAO на любую совместимую с EVM цепочку, а предварительно построенные смарт-контракты, такие как Prompt и SimplePrompt, позволяют проводить быстрое прототипирование с оптимизацией газа в виду.
opML и рабочий процесс проверки
Оптимистическая система машинного обучения (opML) ORA управляет ее слоем верификации. Когда запускается задача вывода, результат размещается onchain с периодом вызова. В течение этого времени валидаторы opML могут проверить результат и, если он неверный, предоставить доказательство мошенничества. Правильный результат заменяет оспариваемый. Это обеспечивает возможность проверки выводов искусственного интеллекта, встроенных в умные контракты, устойчивых к цензуре и экономически безопасных.
Этот оптимистичный подход балансирует производительность и децентрализацию. В отличие от zkML, который может требовать значительных вычислений на старте, opML делает экономически нецелесообразным добиться успеха с помощью нечестного поведения, особенно при масштабировании сети валидаторов.
Интеграция разработчика
Разработчики взаимодействуют с Gate через хорошо задокументированный модульный интерфейс. Чтобы интегрировать искусственный интеллект в смарт-контракт, разработчик наследует AIOracleCallbackReceiver и реализует функцию aiOracleCallback(), чтобы получать результаты. Затем они могут вызвать оракул, чтобы инициировать вывод, используя идентификаторы моделей, входные данные и адрес обратного вызова.
В настоящее время на Arbitrum развернуто четыре модели, и интеграция может быть такой же простой, как использование шаблонов Prompt от ORA. Инфраструктура также поддерживает более сложные случаи использования благодаря оркестрации вычислений, основанных на Lilith, обеспечивая более быстрые выводы и высокопроизводительные рабочие нагрузки.
Предложение начальной модели (IMO)
ORA создала рамки начального предложения модели (IMO) для децентрализации владения, доходов и управления ИИ-моделями. IMO токенизирует ИИ-модели через двойную структуру токенов:
Путем включения управления на основе токенов и монетизации ИМО финансирует разработку открытого исходного кода, обеспечивая тем самым неподдельность ИИ-инфраструктуры, доступность по всему миру и коллективную собственность.
Заключение
Поскольку вертикаль искусственного интеллекта продолжает развиваться, необходимость в проверяемых выходных данных искусственного интеллекта становится все более критической. Очевидно из вышеизложенного, существует разнообразные подходы к обеспечению доверия в децентрализованных решениях искусственного интеллекта, включая среды доверенного выполнения (TEEs), доказательства выборки (PoSP), машинное обучение с нулевым разглашением (ZKML) и оптимистичное машинное обучение (OPML).
Подходы различаются по различным аспектам, а именно по стоимости, затраченному времени и уровню гарантий безопасности. Скорее всего, все упомянутые выше решения будут использоваться так или иначе, в зависимости от конкретных случаев использования.
Пересылка оригинального заголовка 'AI and Verifiability'
Поскольку системы искусственного интеллекта все чаще интегрируются с блокчейн-экосистемами, обеспечение верифицируемости результатов работы искусственного интеллекта становится угловым камнем для поощрения доверия, прозрачности и ответственности. Это особенно важно для децентрализованных финансов (DeFi) и приложений подтверждения личности, где точность и надежность могут напрямую влиять на финансовые результаты, решения управления и идентификацию пользователей.
Аргументы в пользу проверяемого искусственного интеллекта в децентрализованных системах
Гарантирует, что процессы принятия решений являются прозрачными и понятными. Заинтересованные стороны получают представление о том, какие выводы были сделаны, что является важным, когда решения влияют на транзакции в блокчейне или крупномасштабное управление.
Отслеживает данные, параметры и архитектуры моделей, используемые для генерации прогнозов искусственного интеллекта. Установление происхождения позволяет пользователям знать, откуда взялись тренировочные данные и какие модели были задействованы, повышая доверие и сокращая вероятность распространения дезинформации.
Подтверждает, что конечные выводы искусственного интеллекта являются точными и неизмененными. В децентрализованном контексте это часто включает механизмы подтверждения (например, доказательства с нулевым разглашением, согласование выборки), чтобы обеспечить, что вычисления или выводы не были изменены вне цепи.
Проблемы верификации On-Chain AI
Хотя блокчейны отлично справляются с обеспечением неизменных регистров и распределенного доверия, вычисления искусственного интеллекта на цепи могут быть чрезвычайно дорогими. Например, умножение матрицы на 1000×1000 целых чисел может потреблять миллиарды газа, превышая текущий блочный газовый лимит Ethereum (Zheng et al., 2021). В результате большинство проектов по искусственному интеллекту полагаются на внеблочные вычисления с проверкой на цепи.
Однако подходы вне цепи вводят новые вызовы:
Потенциальный мошенничество: Без надежной верификации злоумышленники могут представлять неверные или измененные данные.
Слабые места централизованные: Зависимость от оффчейн оракулов или частных серверов может подорвать децентрализованную этику, приведя к цензуре или единичным точкам отказа.
Следовательно, новые решения направлены на поддержание высокой производительности при внедрении криптографической или образцовой верификации, обеспечивая баланс эффективности и децентрализации.
EigenLayer - это протокол повторного стекинга, который позволяет валидаторам Ethereum «переставлять» свои ETH для обеспечения дополнительных децентрализованных служб, известных как активно валидируемые службы (AVS). Вместо того чтобы нужен новый набор валидаторов для каждой специализированной задачи (например, валидация искусственного интеллекта, операции межцепочные), EigenLayer повторно использует надежную и децентрализованную сеть валидаторов Ethereum.
EigenLayer улучшает безопасность, позволяя новым службам активной проверки (AVS) подключаться к существующему набору валидаторов Ethereum. Этот набор валидаторов уже большой, обладает достаточным капиталом и географически распределен, предлагая надежные криптоэкономические гарантии без необходимости создавать новую сеть с нуля.
Активировав restaking, EigenLayer значительно снижает операционные издержки. Проектам больше не нужно создавать и поддерживать свои собственные валидаторские экосистемы, что снижает как инфраструктурные затраты, так и барьеры для запуска новых децентрализованных сервисов on-chain.
Кроме того, система предлагает высокую гибкость. AVS может настраивать свою собственную логику согласования и проверки, сохраняя при этом базовый уровень безопасности Ethereum, что делает EigenLayer идеальным фундаментом для модульных, безопасных и масштабируемых децентрализованных приложений.
Hyperbolic Labs представляет Proof of Sampling (PoSP), эффективную, масштабируемую альтернативу традиционным zkML или оптимистическим доказательствам мошенничества для валидации ИИ. Этот новый протокол верификации на основе выборки обеспечивает доверие пользователей к результатам их моделей, обучаемых и запускаемых нашей децентрализованной сетью GPU. Этот протокол, известный как Proof of Sampling (PoSP), является новым золотым стандартом для верификации в области искусственного интеллекта.
Разработанный командой Hyperbolic при сотрудничестве с исследователями из Университета Калифорнии в Беркли и Колумбийского университета, PoSP использует теорию игр для обеспечения безопасности децентрализованных систем. Он проверяет стратегическую выборку результатов и реализует процесс арбитража для нечестных узлов с целью стимулировать 100% честное поведение во всей сети.
Proof of Spontaneous Proofs (PoSP) предлагает несколько ключевых преимуществ: он обеспечивает эффективную верификацию за счет добавления менее 1% вычислительных накладных расходов, позволяя узлам поддерживать скорость работы близкую к исходной. Его надежная безопасность обеспечивает добросовестное поведение участников, так как случайные проверки делают мошенничество слишком рискованным, чтобы было стоящим. Через игровые инцентивы, PoSP создает чистую стратегическую равновесие Нэша, где честное поведение всегда является рациональным выбором. Наконец, PoSP легко масштабируется для AI-сервисов, способен поддерживать масштабные децентрализованные рабочие нагрузки для искусственного интеллекта, обеспечивая проверяемость и доверие высокопроизводительных вычислительных и выводных процессов.
Случайные проверки: Поворачивающийся набор валидаторов (через EigenLayer) регулярно выбирает и проверяет вычисления искусственного интеллекта. Эта непрерывная верификация предотвращает систематическое мошенничество.
Равновесие Нэша Инцентивы: Злонамеренное поведение экономически нецелесообразно для валидаторов - нечестные или несогласованные выводы приводят к штрафам.
Высокая пропускная способность: более низкие накладные расходы PoSP делают его хорошо подходящим для случаев использования, требующих быстрых, частых выводов искусственного интеллекта.
В отличие от других децентрализованных решений в области искусственного интеллекта, когда вы запускаете вывод на децентрализованной сети Hyperbolic, вы можете быть уверены, что получаете действительный результат.
Интегрируя PoSP в EigenLayer, децентрализованные службы искусственного интеллекта могут достичь безопасной, минимизированной доверия структуры, способной обрабатывать растущее количество запросов на вывод без ущерба для децентрализации или экономичности.
Случайная валидация: Валидаторы выбираются случайным образом для проверки выводов, обеспечивая беспристрастные результаты.
Масштабируемая поддержка AVS: PoSP снижает вычислительные требования, позволяя EigenLayer обеспечивать эффективную защиту крупномасштабных сервисов.
Противодействие мошенничеству: Строгие наказания делают нечестность невыгодной, в то время как честное поведение остается оптимальной стратегией.
Протокол EigenLayer, совмещенный с нашим протоколом Proof of Sampling, фундаментально преобразует способ обеспечения безопасности децентрализованных сервисов. Теперь мы предлагаем масштабируемую, надежную и защищенную от мошенничества инфраструктуру за долю стоимости. - Джаспер Чжан, CEO Hyperbolic
Прочтите полную статью о PoSP здесь
Сеть Mira нацелена на решение фундаментальной проблемы в области искусственного интеллекта, которая заключается в склонности крупных языковых моделей (LLM) к генерации неверной информации. Разработанный для снижения галлюцинаций и максимизации точности вывода без участия человека, Mira использует децентрализованную сеть независимых узлов для доверительной проверки выводов искусственного интеллекта параллельно.
В архитектуре Mira три шага
Бинаризация
Процесс разбиения выходных данных на более простые «заявки».
Распределенная верификация
Данные утверждения подтверждаются сетью узлов-подтверждателей, которые запускают специализированные модели для проверки утверждений. Проверка выполняется в формате вопросов с множественным выбором. Утверждения для проверки случайным образом разделены между подтверждающими, что затрудняет сговор.
Доказательство-Проверка
Гибридный механизм консенсуса, который комбинирует Proof-of-Work (PoW) и Proof-of-Stake (PoS), используется. Каждому проверяющему необходимо делать ставку, чтобы принять участие в верификации. Такой подход гарантирует, что проверяющие фактически выполняют вывод, а не просто утверждают. Ставка проверяющего будет сокращена, если выход оказывается постоянно отклоняющимся от консенсуса.
После достижения консенсуса сетью по выводу генерируется криптографический сертификат и записывается в блокчейн, создавая неизменную запись проверенных фактов.
Источник:Белая книга сети Mira
Конфиденциальность является ключевым аспектом дизайна Mira. Учитывая, что заявки распределены случайным образом, одному оператору узла невозможно восстановить исходный вывод. Кроме того, ответы на проверку от независимых проверяющих остаются конфиденциальными до достижения консенсуса, что предотвращает утечку информации.
Mira стремится проверять все более сложный контент, включающий в себя код, структурированные данные и мультимедийный контент. В будущем Mira также будет восстанавливать недопустимый контент при его обнаружении, достигая точности и скорости в выводе искусственного интеллекта. В конечном итоге Mira Network сможет накапливать экономически обеспеченные факты, создавая базу данных для проверки фактов.
По мере роста использования сети - увеличение сбора комиссий - лучшие награды за верификацию - привлечение большего количества узловых операторов - улучшение точности, стоимости и задержки при верификации ответов
Atoma - это децентрализованная, частная и верифицируемая сеть выполнения искусственного интеллекта, работающая на основной сети Sui. Основная архитектура состоит из трех элементов: (a) вычислительный слой; (b) слой верификации; и (c) слой конфиденциальности.
Уровень вычислений
Глобальная сеть узлов выполнения, обрабатывающая запросы на вывод. Большое количество узлов доступно благодаря работе с различными центрами обработки данных и краевыми устройствами, такими как цифровые устройства отдельных лиц.
С Atoma модельные веса доступны локально на узлах, увеличивая скорость вывода при получении запроса. Кроме того, полученные запросы направляются на наиболее подходящий узел, соответствующий задаче с соответствующей производительностью и стоимостью.
Atoma фокусируется на оптимизации эффективности выполнения выводов через несколько функций, включая FlashAttention и Paged Attention, что вместе способствует снижению вычислительной нагрузки.
Слой верификации
Целостность вычислений подтверждается путем согласования выборки. Это процесс, при котором узлы выбираются случайным образом для выполнения вывода и генерации криптографического хеша вывода. Если все хеши, сгенерированные выбранным набором узлов, совпадают, вывод вывода проверен. Если существует расхождение между сгенерированными хешами, сеть найдет нечестный узел, который будет наказан путем снижения его доли.
Вероятность того, что злонамеренный злоумышленник сможет контролировать половину или более всей GPU-мощности сети, чтобы обмануть систему, очень низкая и становится еще сложнее по мере масштабирования узловой сети. Количество выбранных узлов для выборки гибкое, для задач с более высоким стейком может быть выбрано большее количество узлов.
Слой конфиденциальности
Atoma делает упор на обеспечение безопасности и конфиденциальности пользовательских данных, выполняя вычисления в доверенной исполнительной среде (TEE). Данные, введенные пользователями, зашифрованы и расшифровываются только в TEE. Это предотвращает просмотр данных пользователей другими участниками блокчейна. После выполнения вывода он зашифрован, прежде чем возвращается пользователям.
Несмотря на то, что это безопасное решение, стоит отметить, что оно имеет компромисс в виде более высоких накладных расходов на вычисления, что может привести к более высоким комиссиям для пользователей.
Подобно Atoma Network выше, Aizel Network выбирает подход на основе TEE. Разница здесь заключается в том, что Aizel интегрировал Multi-Party Computation (MPC) в свой рабочий процесс, где задачи вывода маршрутизируются на различные TEE. Это направлено на децентрализацию сети, обеспечивая возможность вывода даже в том случае, если один из TEE взломан или вышел из строя.
Fortytwo чемпиона модель «растительного вывода», построенную вокруг маленьких, специализированных моделей (SLM). Вместо того чтобы полагаться на один огромный монолитный ИИ, сеть оркестрирует несколько моделей, запущенных участниками, каждая из которых настроена на конкретные задачи или области. Эти модели работают параллельно, проверяя, уточняя и перепроверяя результаты друг друга, чтобы обеспечить более точные и надежные выводы.
Эта децентрализованная структура решает проблемы, с которыми часто сталкиваются одиночные крупные модели, такие как узкие места в обучении, затратные аппаратные требования и единичные точки отказа. Распределяя интеллект по множеству меньших моделей и участников, Fortytwo обеспечивает как масштабируемость, так и отказоустойчивость.
Инициализация с учетом намерений
Перед началом любой задачи участники определяют цель, бюджет и ограничения. Такой подход выравнивает каждое SLM с общей миссией—будь то резюмирование текста, анализ кода или любое другое специализированное умозаключение.
Специализации, определенные участниками
Операторы отдельных узлов привносят свои собственные настроенные модели в сеть. Они сохраняют полный контроль над весами, смещениями и собственными данными, обеспечивая конфиденциальность для каждого владельца модели. Эти специализированные модели могут сосредоточиться на таких областях, как анализ настроения, разбор юридического текста или даже генерация кода, специфичного для области.
Конфиденциальность весов и смещений
Один из ключевых аспектов Gate состоит в том, что участники не обязаны делиться внутренностями исходной модели. С сетью совместно используются только результаты вывода. Такой подход сохраняет интеллектуальную собственность каждого владельца модели и помогает смягчить риски, связанные с раскрытием конфиденциальных данных.
Многопользовательское сотрудничество SLM
Задачи распределяются между 7–8 (или более) специализированными SLM, каждый из которых предоставляет уникальную областную перспективу. Разделяя более крупные задачи на более мелкие подзадачи, сеть более эффективно использует преимущества каждой модели.
Плоская смесь экспертов (MoE)
Вместо того, чтобы укладывать подэкспертов в несколько уровней, Fortytwo использует подход "плоского" MoE, где каждая модель обрабатывает данные независимо. Этот дизайн может быть особенно эффективным, поскольку он избегает сложности иерархического гейтинга, позволяя экспертам сосредотачиваться исключительно на своих соответствующих подзадачах.
Коллективное обнаружение ошибок
Оценка коллег играет ключевую роль в поддержании точности вывода. Когда модели расходятся, сеть выявляет расхождения для более глубокого анализа. Этот процесс перекрестной проверки критичен для раннего выявления ошибок и обеспечения высококачественного вывода.
Оборудование для потребителей
Fortytwo оптимизирован для устройств, таких как Apple Silicon и RTX GPU, снижая барьеры стоимости и расширяя базу потенциальных операторов узлов. Такой подход демократизирует искусственный интеллект, позволяя большему числу людей, а не только крупным центрам обработки данных, участвовать в этом процессе.
Кластеры развертывания
Многие операторы узлов выбирают облачные платформы (например, AWS) или самостоятельно разворачиваемые кластеры, чтобы минимизировать задержку. Хорошо скоординированные кластеры становятся особенно ценными в ситуациях, где даже небольшие задержки могут значительно повлиять на пользовательский опыт.
Растущее участие
Тысячи участников проявили интерес к запуску узлов вывода, создавая разнообразную и распределенную сеть. Это расширение добавляет больше вычислительных ресурсов в сеть, дополнительно увеличивая пропускную способность и устойчивость.
Вклады модели типа Википедии
Подобно тому, как редакторы Википедии сотрудничают над статьями, каждый оператор узла может улучшить или настроить специализированные модели и обмениваться улучшенными методами вывода. Это коллективное обслуживание и совершенствование способствует непрерывной инновации и повышает общий интеллект сети.
Lagrange находится на передовой в использовании технологии Zero-Knowledge (ZK) для обеспечения верифицируемости искусственного интеллекта. Их девиз - "Будущее искусственного интеллекта - это ZK, а будущее человечества - Lagrange" - подчеркивает убеждение, что по мере развития искусственного интеллекта в сторону сверхинтеллекта нам необходимо обеспечить прозрачность и доверие в функционирование этих моделей.
DeepProve: Высокопроизводительный zkML
Избавляясь от взаимодействий искусственного интеллекта в стиле "черного ящика", Лагранж гарантирует, что пользователи не должны слепо доверять искусственному интеллекту. В децентрализованных средах, где минимизация доверия играет ключевую роль, криптографическое обеспечение целостности модели и правильности вывода становится важным.
Более того, Inference Labs действует как прикладная часть Lagrange, соединяя исследования и практические внедрения. В то время как Lagrange сосредотачивается на основных криптографических и схемотехнических разработках, Inference Labs гарантирует, что эти новшества готовы к производству.
Интеграции в реальном мире
Внедряет zkML в существующие конвейеры машинного обучения, сосредотачиваясь на секторах, таких как DeFi, игры, здравоохранение и происхождение поставок.
Сотрудничает с лидерами отрасли для тестирования новых функций Лагранжа в реальных условиях (например, большое количество параметров, строгие требования к задержке).
EZKL - это открытая система для создания проверяемого искусственного интеллекта и аналитики с использованием доказательств нулевого разглашения (ZKPs). Она позволяет разработчикам доказать, что модели искусственного интеллекта были выполнены правильно, не раскрывая чувствительные данные или собственные детали модели. Вдохновленная системами, такими как Apple Face ID, EZKL расширяет неприкосновенную безопасность модели на любую модель на любом устройстве, не полагаясь на специализированные аппаратные средства, такие как TEEs.
Инфраструктура нулевого доказательства
EZKL автоматизирует весь цикл жизни ZKP - от компиляции модели до генерации и проверки доказательств. Пользователи предоставляют модели искусственного интеллекта в формате ONNX, которые EZKL компилирует в цепи, дружественные к ZK, с использованием оптимизированной версии системы доказательства Halo2. Затем система генерирует криптографические доказательства правильного выполнения модели, которые можно проверить на любом устройстве.
Этот криптографический процесс обеспечивает децентрализованное доверие в высокоорискованных приложениях ИИ, таких как финансовое принятие решений, биометрическая аутентификация и проверка выводов в реальном времени.
Коллаборативные SNARKs (Cosnarks)
Недавно EZKL представила Совместные SNARKs (cosnarks), позволяя двум сторонам — таким как владелец модели и владелец данных — совместно генерировать доказательство ZK, не разглашая свои конфиденциальные активы. В отличие от делегированных систем доказательства MPC, cosnarks устраняют дополнительные доверенные предположения, ограничивая вычисления только участвующим сторонам.
Этот прогресс позволяет использовать сценарии, такие как частная кредитная оценка, конфиденциальные стратегии торговли и верификация личности с нулевым знанием. Реализация использует оптимизированную для 2PC библиотеку MPC Renegade и интегрируется непосредственно в Lilith, облачный слой оркестровки EZKL.
Поддержка моделей и гибкость
EZKL поддерживает широкий спектр архитектур искусственного интеллекта и машинного обучения, включая CNN, RNN, трансформеры в стиле GPT, деревья решений и стабильные диффузионные модели. Любую модель, совместимую со стандартом ONNX, можно преобразовать в ZK-схему.
Абстрагируя логику модели в математические схемы, EZKL обеспечивает конфиденциальное выводы в различных отраслях, таких как финансы, здравоохранение и идентификация. Деревья логики, механизмы внимания и операции над матрицами крупного масштаба поддерживаются в рамках, поддерживаемых Halo2.
Опыт разработчика
EZKL придает приоритет доступности и абстрагированию сложности. Разработчикам не требуется предварительных знаний криптографии, опыта проектирования схем или продвинутых навыков DevOps. Система предлагает привязки в CLI, Python, JavaScript и Rust, что облегчает встраивание ZK рабочих процессов в существующие конвейеры ML.
Автоматическое создание ограничений, упрощенные команды доказательств и безупречная интеграция с инструментами оркестровки позволяют разработчикам сосредоточиться исключительно на логике приложения.
ORA - это цепно-независимый протокол оракулов, который соединяет искусственный интеллект и блокчейн, позволяя разработчикам создавать полностью децентрализованные приложения, работающие на проверяемом машинном обучении. Через свою инфраструктуру ORA предоставляет возможность использования выводов искусственного интеллекта, генерации контента и выполнения сложных вычислений непосредственно на цепи, устраняя зависимость от внешних API или централизованных вычислений. Его основное новшество заключается в сочетании выполнения искусственного интеллекта с криптографическими доказательствами, создавая программируемые конвейеры искусственного интеллекта с встроенной верификацией.
Протокол позволяет любому разработчику создавать приложения, в которых выводы искусственного интеллекта — будь то ответ модели языка, сгенерированное изображение или проверенное утверждение — могут быть встроены в смарт-контракты с гарантией проверяемости и корректности.
Onchain AI Oracle (OAO)
Onchain AI Oracle (OAO) - флагманский продукт ORA. Он позволяет смарт-контрактам запрашивать, получать и действовать на основе результатов выводов искусственного интеллекта, запущенных внецепочно, но проверенных и урегулированных в цепочке. Разработчики могут вызывать задание вывода искусственного интеллекта через сеть opML ORA. Результат возвращается через функцию обратного вызова в контракте пользователя, делая цепочные приложения нативными для искусственного интеллекта и полностью автономными.
OAO поддерживает несколько крупных моделей - такие как LLaMA3, Stable Diffusion, OpenLM Chat/Score - работающих через проверяемую инфраструктуру. Разработчики могут интегрировать OAO на любую совместимую с EVM цепочку, а предварительно построенные смарт-контракты, такие как Prompt и SimplePrompt, позволяют проводить быстрое прототипирование с оптимизацией газа в виду.
opML и рабочий процесс проверки
Оптимистическая система машинного обучения (opML) ORA управляет ее слоем верификации. Когда запускается задача вывода, результат размещается onchain с периодом вызова. В течение этого времени валидаторы opML могут проверить результат и, если он неверный, предоставить доказательство мошенничества. Правильный результат заменяет оспариваемый. Это обеспечивает возможность проверки выводов искусственного интеллекта, встроенных в умные контракты, устойчивых к цензуре и экономически безопасных.
Этот оптимистичный подход балансирует производительность и децентрализацию. В отличие от zkML, который может требовать значительных вычислений на старте, opML делает экономически нецелесообразным добиться успеха с помощью нечестного поведения, особенно при масштабировании сети валидаторов.
Интеграция разработчика
Разработчики взаимодействуют с Gate через хорошо задокументированный модульный интерфейс. Чтобы интегрировать искусственный интеллект в смарт-контракт, разработчик наследует AIOracleCallbackReceiver и реализует функцию aiOracleCallback(), чтобы получать результаты. Затем они могут вызвать оракул, чтобы инициировать вывод, используя идентификаторы моделей, входные данные и адрес обратного вызова.
В настоящее время на Arbitrum развернуто четыре модели, и интеграция может быть такой же простой, как использование шаблонов Prompt от ORA. Инфраструктура также поддерживает более сложные случаи использования благодаря оркестрации вычислений, основанных на Lilith, обеспечивая более быстрые выводы и высокопроизводительные рабочие нагрузки.
Предложение начальной модели (IMO)
ORA создала рамки начального предложения модели (IMO) для децентрализации владения, доходов и управления ИИ-моделями. IMO токенизирует ИИ-модели через двойную структуру токенов:
Путем включения управления на основе токенов и монетизации ИМО финансирует разработку открытого исходного кода, обеспечивая тем самым неподдельность ИИ-инфраструктуры, доступность по всему миру и коллективную собственность.
Заключение
Поскольку вертикаль искусственного интеллекта продолжает развиваться, необходимость в проверяемых выходных данных искусственного интеллекта становится все более критической. Очевидно из вышеизложенного, существует разнообразные подходы к обеспечению доверия в децентрализованных решениях искусственного интеллекта, включая среды доверенного выполнения (TEEs), доказательства выборки (PoSP), машинное обучение с нулевым разглашением (ZKML) и оптимистичное машинное обучение (OPML).
Подходы различаются по различным аспектам, а именно по стоимости, затраченному времени и уровню гарантий безопасности. Скорее всего, все упомянутые выше решения будут использоваться так или иначе, в зависимости от конкретных случаев использования.