Les 6 solutions émergentes de vérification de l'IA en 2025

Intermédiaire4/17/2025, 2:03:08 AM
Cet article explore les solutions de pointe dans le domaine de la vérifiabilité de l'IA en 2025, avec une analyse approfondie de six projets majeurs : EigenLayer, Hyperbolic, Mira, Atoma, Fortytwo et Lagrange. Ces initiatives adoptent des approches techniques diverses, notamment Proof-of-Sampling (PoSP), Trusted Execution Environments (TEEs) et Zero-Knowledge Proofs (ZKPs), pour relever le défi de la fiabilité des sorties de l'IA. Chaque solution offre des avantages uniques et est adaptée à des cas d'utilisation spécifiques, contribuant collectivement au développement de l'infrastructure décentralisée de l'IA.

Transférer le titre original 'AI and Verifiability'

Alors que les systèmes d'IA s'intègrent de plus en plus aux écosystèmes blockchain, garantir la vérifiabilité des résultats de l'IA devient un pilier pour favoriser la confiance, la transparence et la responsabilité. Cela est particulièrement critique pour la finance décentralisée (DeFi) et les applications de preuve d'identité, où l'exactitude et la fiabilité peuvent directement influencer les résultats financiers, les décisions de gouvernance et l'identité de l'utilisateur.

L'argument en faveur de l'IA vérifiable dans les systèmes décentralisés

Observabilité de l'IA

Veille à ce que les processus de prise de décision soient transparents et compréhensibles. Les parties prenantes acquièrent un aperçu de la manière dont les conclusions sont tirées - vital lorsque les décisions influencent les transactions on-chain ou la gouvernance à grande échelle.

Traçabilité de la source

Suit les données, les paramètres et les architectures de modèles utilisés pour générer des prédictions en IA. En établissant la provenance, les utilisateurs savent d'où viennent les données d'entraînement et quels modèles ont été utilisés, renforçant la confiance et réduisant la probabilité de désinformation.

Vérification de la sortie

Confirme que les sorties finales de l'IA sont à la fois précises et non modifiées. Dans un contexte décentralisé, cela implique souvent des mécanismes de preuve (par exemple, preuves de connaissance nulle, consensus d'échantillonnage) pour garantir que les calculs ou les inférences n'ont pas été altérés hors chaîne.

Défis de la vérifiabilité de l'IA on-chain

Alors que les blockchains excellent dans la fourniture de registres immuables et de confiance distribuée, les calculs d'IA on-chain peuvent être prohibitivement coûteux. Par exemple, la multiplication de matrices pour 1000×1000 entiers peut consommer des milliards de gaz, au-delà de la limite de gaz de bloc actuelle d'Ethereum (Zheng et al., 2021). Par conséquent, la plupart des projets d'IA reposent sur le calcul hors chaîne avec vérification en chaîne.

Cependant, les approches hors chaîne introduisent de nouveaux défis :

Fraude potentielle : Sans une vérification robuste, des acteurs malveillants peuvent soumettre des données incorrectes ou manipulées.

Points faibles centralisés : S'appuyer sur des oracles hors chaîne ou des serveurs privés peut compromettre l'éthique décentralisée, conduisant à la censure ou à des points uniques de défaillance.

Ainsi, les solutions émergentes visent à maintenir des performances élevées tout en incorporant une vérification cryptographique ou basée sur l'échantillonnage, équilibrant efficacité et décentralisation.

EigenLayer

EigenLayer est un protocole de restaking qui permet aux validateurs d'Ethereum de "restituer" leur ETH pour sécuriser des services décentralisés supplémentaires, connus sous le nom de Services Validés de Manière Active (AVS). Plutôt que d'avoir besoin d'un nouvel ensemble de validateurs pour chaque tâche spécialisée (par exemple, validation de l'IA, opérations cross-chain), EigenLayer réutilise le réseau de validateurs robuste et décentralisé d'Ethereum.

EigenLayer améliore la sécurité en permettant aux nouveaux Services de Validation Actifs (AVS) de se connecter à l'ensemble de validateurs existants d'Ethereum. Cet ensemble de validateurs est déjà important, bien capitalisé et distribué géographiquement, offrant des garanties cryptéconomiques robustes sans avoir besoin de créer un nouveau réseau à partir de zéro.

En activant le restaking, EigenLayer réduit considérablement les frais opérationnels. Les projets n'ont plus besoin de créer et de maintenir leurs propres écosystèmes de validateurs, ce qui réduit à la fois les coûts d'infrastructure et les barrières à la création de nouveaux services décentralisés on-chain.

De plus, le système offre une grande flexibilité. AVS peut personnaliser sa propre logique de consensus et de validation tout en héritant de la sécurité de la couche de base d'Ethereum, ce qui fait d'EigenLayer une base idéale pour des applications décentralisées modulaires, sécurisées et évolutives.

Preuve de l'échantillonnage hyperbolique (PoSP) de Gate

Hyperbolic Labs présente Proof of Sampling (PoSP), une alternative efficace et évolutive aux preuves de fraude traditionnelles zkML ou optimistes pour la validation de l'IA. Ce nouveau protocole de vérification basé sur l'échantillonnage garantit que nos utilisateurs peuvent faire confiance aux résultats de leurs modèles en cours de formation et d'exécution sur notre réseau GPU décentralisé. Ce protocole, connu sous le nom de Proof of Sampling (PoSP), est la nouvelle norme en matière de vérification en IA.

Développé par l'équipe Hyperbolic en collaboration avec des chercheurs de l'UC Berkeley et de l'Université Columbia, PoSP utilise la théorie des jeux pour sécuriser les systèmes décentralisés. Il valide un échantillon stratégique de résultats et met en place un processus d'arbitrage pour inciter les nœuds malhonnêtes à adopter un comportement 100% honnête à travers le réseau.

La preuve des preuves spontanées (PoSP) offre plusieurs avantages clés : elle permet une vérification efficace en ajoutant moins de 1 % de surcharge computationnelle, permettant aux nœuds de maintenir des vitesses de fonctionnement proches de la vitesse native. Sa sécurité robuste garantit que les participants restent honnêtes, car les vérifications aléatoires rendent la fraude trop risquée pour être rentable. Grâce aux incitations de la théorie des jeux, PoSP crée un équilibre de Nash à stratégie pure où le comportement honnête est toujours le choix rationnel. Enfin, PoSP est hautement évolutif pour les services d'IA, capable de prendre en charge des charges de travail d'IA décentralisées à grande échelle tout en garantissant que les processus de calcul et d'inférence à haute performance restent vérifiables et dignes de confiance.

Audits aléatoires : Un ensemble rotatif de validateurs (via EigenLayer) échantillonne régulièrement et vérifie les calculs d'IA. Cette vérification continue empêche la triche systématique.

Incitations à l'équilibre de Nash: Le comportement malveillant est économiquement irrationnel pour les validateurs - des sorties malhonnêtes ou incohérentes entraînent des pénalités pouvant être réduites.

Débit élevé : Le surcoût de performance inférieur de PoSP le rend bien adapté aux cas d'utilisation nécessitant des inférences AI rapides et fréquentes.

Contrairement à d'autres solutions d'IA décentralisées, lorsque vous exécutez une inférence sur le réseau décentralisé de Hyperbolic, vous pouvez être sûr de recevoir un résultat valide.

En intégrant PoSP dans EigenLayer, les services d'IA décentralisés peuvent atteindre un cadre sûr et minimisé en termes de confiance qui peut gérer un nombre croissant de demandes d'inférence sans sacrifier la décentralisation ou l'efficacité coût.

Validation aléatoire : Les validateurs sont sélectionnés de manière aléatoire pour vérifier les sorties, garantissant des résultats impartiaux.

Prise en charge évolutive de AVS : PoSP réduit les exigences computationnelles, permettant à EigenLayer de sécuriser efficacement des services à grande échelle.

Dissuasion de la fraude : des sanctions strictes rendent la malhonnêteté non rentable, tandis que le comportement honnête reste la stratégie optimale.

Le protocole EigenLayer combiné à notre protocole de preuve d'échantillonnage transforme fondamentalement la manière dont nous sécurisons les services décentralisés. Nous offrons désormais une infrastructure évolutive, fiable et résistante à la fraude à une fraction du coût. - Jasper Zhang, PDG de Hyperbolic


Lisez le document complet sur PoSP ici

Mira

Mira Network vise à relever un défi fondamental en matière d'IA, à savoir la tendance des grands modèles linguistiques (LLM) à générer des informations incorrectes. Conçu pour réduire les hallucinations et maximiser la précision de la production sans surveillance humaine, Mira s'appuie sur un réseau décentralisé de nœuds indépendants pour vérifier de manière fiable les sorties d'IA en parallèle.

Il y a trois étapes dans l'architecture de Mira

Binarisation

Le processus de fractionnement des sorties en 'réclamations' plus simples.

Vérification Distribuée

Les affirmations ci-dessus sont vérifiées par un réseau de nœuds vérificateurs qui exécutent des modèles spécialisés pour vérifier les affirmations. La vérification se fait sous forme de questions à choix multiples. Les affirmations à vérifier sont réparties de manière aléatoire entre les vérificateurs, ce qui rend la collusion difficile.

Preuve de vérification

Un mécanisme de consensus hybride combinant la Preuve de Travail (PoW) et la Preuve d'Enjeu (PoS) est utilisé. Chaque vérificateur doit miser pour participer à la vérification. Cette approche garantit que les vérificateurs effectuent réellement des inférences, au lieu de simplement attester. La mise d'un vérificateur sera réduite si leur sortie est constamment en désaccord avec le consensus.

Une fois que le consensus a été atteint par le réseau sur une sortie, un certificat cryptographique est généré et écrit dans la blockchain, créant un enregistrement immuable de faits vérifiés.


Source:Mira Network Whitepaper

La confidentialité est un aspect clé de la conception de Mira. Étant donné que les réclamations sont fragmentées de manière aléatoire, il n'est pas possible pour un seul opérateur de nœud de reconstruire la sortie d'origine. De plus, les réponses de vérification des vérificateurs indépendants sont conservées privées avant le consensus, empêchant les fuites d'informations.

Mira cherche à vérifier du contenu de plus en plus complexe, comprenant du code, des données structurées et du contenu multimédia. À l'avenir, Mira reconstruira également du contenu invalide lorsqu'il est détecté, alliant précision et rapidité dans la production d'IA. Finalement, le réseau Mira pourra accumuler des faits économiquement sécurisés, créant ainsi une base de données pour la vérification des faits.

À mesure que l'utilisation du réseau augmente - une génération de frais plus élevée - de meilleures récompenses de vérification - attire plus d'opérateurs de nœuds - une précision, un coût et une latence améliorés dans la vérification des réponses

Atoma

Atoma est un réseau d'exécution d'IA décentralisé, privé et vérifiable, en direct sur le mainnet de Sui. L'architecture de base se compose de trois éléments : (a) couche de calcul et; (b) couche de vérification et; (c) couche de confidentialité.

Couche de calcul

Un réseau mondial de nœuds d'exécution qui traite les demandes d'inférence. Un grand nombre de nœuds sont disponibles en travaillant avec divers centres de données et des périphériques de bord comme les appareils numériques des individus.

Avec Atoma, les poids du modèle sont disponibles localement sur les nœuds, ce qui augmente la vitesse d'inférence lorsqu'une demande a été reçue. De plus, les demandes reçues sont acheminées vers le nœud le plus adapté, correspondant à la tâche avec les performances et les coûts correspondants.

Atoma se concentre sur l'optimisation de l'efficacité de l'exécution des inférences grâce à plusieurs fonctionnalités, notamment FlashAttention et Paged Attention, contribuant toutes deux à réduire la surcharge computationnelle.

Couche de vérification

L'intégrité du calcul est vérifiée grâce à un consensus d'échantillonnage. C'est un processus où les nœuds sont sélectionnés au hasard pour exécuter une inférence et générer un hachage cryptographique de la sortie. Si tous les hachages générés par l'ensemble de nœuds sélectionné correspondent, la sortie de l'inférence est vérifiée. En cas de divergence entre les hachages générés, le réseau cherchera le nœud malhonnête, qui sera pénalisé par une réduction de sa participation.

Les chances qu'un attaquant malveillant puisse contrôler la moitié ou plus de la puissance GPU de l'ensemble du réseau pour manipuler le système sont très faibles, et deviennent encore plus difficiles à mesure que le réseau de nœuds se développe. Le nombre de nœuds sélectionnés pour l'échantillonnage est flexible, pour les tâches à plus enjeu, un plus grand ensemble de nœuds peut être choisi.

Couche de confidentialité

Atoma met l'accent sur la sécurisation et la confidentialité des données des utilisateurs en exécutant des calculs dans un environnement d'exécution sûr (TEE). Les données saisies par les utilisateurs sont chiffrées et ne sont déchiffrées que dans le TEE. Cela empêche toute autre partie de la blockchain de consulter les données de l'utilisateur. Une fois l'inférence effectuée, la sortie est chiffrée avant d'être renvoyée aux utilisateurs.

Malgré le fait que ce soit une solution sécurisée, il convient de noter qu'elle implique un compromis en termes de surcharge de calcul plus élevée, ce qui pourrait entraîner des frais plus élevés pour les utilisateurs.

Réseau Aizel

Tout comme Atoma Network ci-dessus, Aizel Network opte pour une approche basée sur la technologie TEE. La différence ici est qu'Aizel a intégré le calcul multipartite (MPC) dans son flux de travail, où les tâches d'inférence sont acheminées vers différents TEE. L'objectif est de décentraliser le réseau, en veillant à ce que l'inférence soit toujours possible même lorsqu'un TEE est piraté ou hors service.

Quarante-deux

Fortytwo défend un modèle d'"inférence de swarm" construit autour de Petits Modèles Spécialisés (SLMs). Au lieu de s'appuyer sur une seule intelligence artificielle massive et monolithique, le réseau orchestre plusieurs modèles gérés par des contributeurs, chacun étant ajusté finement pour des tâches ou domaines spécifiques. Ces modèles travaillent en parallèle, vérifiant, affinant et se recoupant mutuellement pour fournir des inférences plus précises et fiables.

Cette structure décentralisée aborde les problèmes auxquels sont souvent confrontés les modèles uniques et volumineux, tels que les goulots d'étranglement dans la formation, les exigences coûteuses en matériel et les points de défaillance uniques. En distribuant l'intelligence à travers de nombreux modèles et contributeurs plus petits, Fortytwo garantit à la fois la scalabilité et la tolérance aux pannes.

1. Petits modèles spécialisés (SLM)

Initialisation basée sur l'intention

Avant le début de toute tâche, les contributeurs spécifient l'objectif, le budget et les contraintes. Cette approche aligne chaque SLM sur la mission globale, que ce soit la résumé de texte, l'analyse de code ou toute autre inférence spécialisée.

Spécialisations définies par les contributeurs

Les opérateurs de nœuds individuels apportent leurs propres modèles peaufinés au réseau. Ils conservent un contrôle total sur les poids, les biais et les données propriétaires, garantissant ainsi la confidentialité de chaque propriétaire de modèle. Ces modèles spécialisés peuvent se concentrer sur des domaines tels que l'analyse des sentiments, l'analyse de texte juridique ou même la génération de code spécifique au domaine.

Confidentialité des poids et des biais

Un aspect critique de Gate est que les contributeurs n'ont pas à partager les données brutes du modèle interne. Seuls les résultats de l'inférence sont partagés avec le réseau. Cette conception préserve la propriété intellectuelle de chaque propriétaire de modèle et contribue à atténuer les risques liés à l'exposition de données sensibles.

2. Inférence de Swarm & Évaluation par les Pairs

Collaboration Multi-SLM

Les tâches sont réparties entre 7 à 8 (ou plus) SLM spécialisés, chacun fournissant une perspective de domaine unique. En divisant les tâches plus importantes en de plus petits sous-problèmes, le réseau exploite plus efficacement les forces de chaque modèle.

Mélange plat d'experts (MoE)

Plutôt que d'empiler des sous-experts sur plusieurs couches, Fortytwo utilise une approche MoE "plate", où chaque modèle traite les données de manière indépendante. Cette conception peut être particulièrement efficace car elle évite la complexité de la gestion hiérarchique, permettant aux experts de se concentrer uniquement sur leur sous-tâche respective.

Détection collective des erreurs

L'évaluation par les pairs joue un rôle crucial dans le maintien de l'exactitude de l'inférence. Lorsque les modèles sont en désaccord, le réseau signale les divergences pour une analyse plus approfondie. Ce processus de vérification croisée est crucial pour détecter les erreurs tôt et garantir une production de haute qualité.

3. Latence faible & Calcul distribué

Matériel grand public

Fortytwo est optimisé pour des appareils comme Apple Silicon et les GPU RTX, ce qui abaisse les barrières financières et élargit la base des opérateurs de nœuds potentiels. Cette approche démocratise l'IA en permettant à un plus grand nombre de personnes, et non seulement aux grands centres de données, de participer.

Clusters de déploiement

De nombreux opérateurs de nœuds choisissent des plateformes cloud (par exemple, AWS) ou des clusters auto-hébergés pour minimiser la latence. Les clusters bien coordonnés deviennent particulièrement précieux dans des scénarios sensibles au temps où même de petits retards peuvent avoir un impact significatif sur l'expérience utilisateur.

4. Communauté d'opérateurs de nœuds

Participation croissante

Des milliers de participants ont exprimé leur intérêt pour l'exécution de nœuds d'inférence, créant un réseau diversifié et distribué. Cette expansion met en ligne davantage de ressources de calcul, augmentant ainsi encore la capacité de traitement et la résilience.

Contributions au modèle de type Wikipedia

Tout comme les rédacteurs de Wikipédia collaborent sur des articles, chaque opérateur de nœud peut améliorer ou peaufiner des modèles spécialisés et partager des techniques d'inférence améliorées. Cette maintenance et ce raffinement collectifs favorisent l'innovation continue et élèvent l'intelligence globale du réseau.

Lagrange

Lagrange est à la pointe de l'utilisation de la technologie Zero-Knowledge (ZK) pour apporter la vérifiabilité à l'IA. Leur devise - "L'avenir de l'IA est ZK, et l'avenir de l'humanité est Lagrange" - souligne la croyance selon laquelle, à mesure que l'IA évolue vers la superintelligence, nous devons garantir la transparence et la confiance dans le fonctionnement de ces modèles.

DeepProve: Haute performance zkML

  • Preuve du modèle correct : DeepProve confirme de manière cryptographique que le bon modèle d'IA a été utilisé pour une inférence donnée, ne laissant aucune place à la manipulation ou à la fausse représentation.
  • Preuve de sortie correcte: il garantit également que la sortie est conforme à ce que le modèle produirait réellement, empêchant les acteurs malveillants d'injecter de faux résultats.
  • Améliorations des performances: Se vante d'une génération de preuves 158 fois plus rapide et d'une vérification 671 fois plus rapide que de nombreuses solutions zkML existantes, rendant le déploiement à grande échelle réalisable.

En supprimant les interactions d'IA "boîte noire", Lagrange garantit que les utilisateurs n'ont pas à faire aveuglément confiance à l'IA. Dans les environnements décentralisés où la minimisation de la confiance est primordiale, la certitude cryptographique concernant l'intégrité du modèle et la correction de la sortie devient essentielle.

De plus, Inference Labs fonctionne comme le bras axé sur l'application de Lagrange, faisant le lien entre la recherche et les déploiements pratiques. Alors que Lagrange se concentre sur la conception cryptographique et des circuits de base, Inference Labs veille à ce que ces avancées soient prêtes pour la production.

Intégrations du monde réel

Intègre le zkML dans les pipelines d'apprentissage automatique existants, en mettant l'accent sur des secteurs tels que DeFi, les jeux, la santé et la provenance de la chaîne d'approvisionnement.

Partenaires avec des leaders de l'industrie pour tester les nouvelles fonctionnalités de Lagrange dans des conditions réelles (par exemple, un grand nombre de paramètres, des exigences strictes en matière de latence).

EZKL

EZKL est un système open-source pour créer une IA vérifiable et des analyses en utilisant des preuves de connaissance nulle (ZKPs). Il permet aux développeurs de prouver que les modèles d'IA ont été exécutés correctement sans révéler de données sensibles ou de détails de modèle propriétaire. Inspiré par des systèmes comme le Face ID d'Apple, EZKL étend une sécurité de modèle incompromisable à n'importe quel modèle sur n'importe quel appareil, sans compter sur du matériel spécialisé comme les TEEs.

Infrastructure de preuve de connaissance nulle

EZKL automatise l'ensemble du cycle de vie de ZKP, de la compilation du modèle à la génération et la vérification de la preuve. Les utilisateurs fournissent des modèles d'IA au format ONNX, que EZKL compile en circuits compatibles ZK à l'aide d'une version optimisée du système de preuve Halo2. Le système génère ensuite des preuves cryptographiques d'exécution correcte du modèle qui peuvent être vérifiées sur n'importe quel appareil.

Ce processus cryptographique permet une confiance décentralisée dans des applications d'IA à hauts enjeux, telles que la prise de décision financière, l'authentification biométrique et la validation de l'inférence en temps réel.

SNARKs collaboratifs (Cosnarks)

EZKL a récemment introduit des SNARKs collaboratifs (cosnarks), permettant à deux parties - telles qu'un propriétaire de modèle et un propriétaire de données - de générer conjointement une preuve ZK sans que l'une ou l'autre partie ne révèle ses actifs confidentiels. Contrairement aux systèmes de preuve MPC délégués, les cosnarks éliminent les hypothèses de confiance supplémentaires en limitant le calcul aux seules parties impliquées.

Cet avancement permet des cas d'utilisation tels que le scoring de crédit privé, les stratégies de trading confidentielles et la vérification d'identité à connaissance zéro. La mise en œuvre exploite la bibliothèque MPC optimisée 2PC de Renegade et est intégrée directement dans Lilith, la couche d'orchestration cloud d'EZKL.

Support du modèle et flexibilité

EZKL prend en charge un large éventail d'architectures AI/ML, y compris les CNN, les RNN, les transformateurs de style GPT, les arbres de décision et les modèles de diffusion stables. Tout modèle compatible avec la norme ONNX peut être converti en un circuit ZK.

En abstraction de la logique du modèle en circuits mathématiques, EZKL permet une inférence préservant la confidentialité dans des secteurs tels que la finance, la santé et l'identité. La logique basée sur les arbres, les mécanismes d'attention et les opérations de matrice à grande échelle sont tous pris en charge dans le cadre soutenu par Halo2.

Expérience du développeur

EZKL privilégie l'accessibilité et l'abstraction de la complexité. Les développeurs n'ont pas besoin de connaissances cryptographiques préalables, d'expérience en conception de circuits ou de compétences avancées en DevOps. Le système offre des liaisons en CLI, Python, JavaScript et Rust, ce qui facilite l'intégration des flux de travail ZK dans les pipelines ML existants.

Génération automatique de contraintes, commandes de preuve simplifiées et intégration transparente avec les outils d'orchestration permettent aux développeurs de se concentrer uniquement sur la logique de l'application.

Protocole ORA

ORA est un protocole d'oracle agnostique de la chaîne qui relie l'IA et la blockchain, permettant aux développeurs de construire des applications entièrement décentralisées et sans confiance alimentées par l'apprentissage machine vérifiable. À travers son infrastructure, ORA apporte l'inférence IA, la génération de contenu et le calcul complexe directement onchain, supprimant la dépendance aux API hors chaîne ou au calcul centralisé. Son innovation principale réside dans la combinaison de l'exécution de l'IA avec des preuves cryptographiques, créant des pipelines d'IA programmables avec une vérifiabilité intégrée.

Le protocole permet à n'importe quel développeur de construire des applications où les sorties de l'IA, qu'il s'agisse d'une réponse de modèle linguistique, d'une image générée ou d'une déclaration vérifiée, peuvent être intégrées dans des contrats intelligents avec des garanties d'auditabilité et de correction.

Oracle Onchain AI (OAO)

L'Oracle Onchain AI (OAO) est le produit phare d'ORA. Il permet aux contrats intelligents de demander, recevoir et agir sur les résultats des inférences IA exécutées hors chaîne, mais vérifiées et réglées sur chaîne. Les développeurs peuvent appeler un travail d'inférence IA via le réseau opML d'ORA. Le résultat est renvoyé via une fonction de rappel dans le contrat de l'utilisateur, rendant les applications sur chaîne natives de l'IA et entièrement autonomes.

OAO prend en charge plusieurs gros modèles - comme LLaMA3, Stable Diffusion, OpenLM Chat/Score - fonctionnant via une infrastructure vérifiable. Les développeurs peuvent intégrer OAO sur n'importe quelle chaîne compatible avec l'EVM, et des contrats intelligents pré-construits comme Prompt et SimplePrompt permettent un prototypage rapide en tenant compte de l'optimisation du gas.

opML et flux de vérifiabilité

Le système d'apprentissage automatique optimiste (opML) d'ORA alimente sa couche de vérifiabilité. Lorsqu'un travail d'inférence est lancé, le résultat est publié onchain avec une période de défi. Pendant ce temps, les validateurs opML peuvent vérifier le résultat et, s'il est incorrect, soumettre une preuve de fraude. Le bon résultat remplace celui contesté. Cela garantit que les sorties d'IA intégrées dans les contrats intelligents sont vérifiables, résistantes à la censure et économiquement sécurisées.

Cette approche optimiste équilibre les performances et la décentralisation. Contrairement au zkML, qui peut nécessiter une lourde computation initiale, opML rend économiquement irrationnel le succès d'un comportement malhonnête, surtout lorsque le réseau de validateurs se développe.

Intégration du développeur

Les développeurs interagissent avec Gate.io à travers une interface bien documentée et modulaire. Pour intégrer l'IA dans un smart contract, un développeur hérite de AIOracleCallbackReceiver et implémente la fonction aiOracleCallback() pour recevoir les résultats. Ils peuvent ensuite appeler l'oracle pour initier l'inférence en utilisant les identifiants de modèle, les données d'entrée et une adresse de rappel.

Quatre modèles sont actuellement déployés sur Arbitrum, et l'intégration peut être aussi simple que d'utiliser les modèles Prompt d'ORA. L'infrastructure prend également en charge des cas d'utilisation plus avancés grâce à son orchestration informatique alimentée par Lilith, permettant une inférence plus rapide et des charges de travail à haut débit.

Offre de Modèle Initial (IMO)

ORA a créé le cadre de l'offre de modèle initial (IMO) pour décentraliser la propriété, les revenus et la gouvernance des modèles d'IA. Les IMO tokenisent les modèles d'IA grâce à une structure à double jeton :

  • ERC-7007: Ancres les sorties générées par l'IA vérifiables (par exemple, images, prédictions) directement onchain.
  • ERC-7641: Distribue les revenus de l'utilisation du modèle aux détenteurs de jetons, créant des systèmes d'IA alignés sur les incitations, gouvernés par la communauté.

En activant la gouvernance et la monétisation basées sur les jetons, les IMOs financent le développement open source tout en veillant à ce que l'infrastructure IA reste résistante à la censure, accessible mondialement et collectivement détenue.

Conclusion

Alors que le secteur de l'IA continue de croître, le besoin de résultats d'IA vérifiables devient de plus en plus critique. Il ressort de ce qui précède qu'il existe différentes approches pour garantir la confiance dans les solutions d'IA décentralisées, notamment les environnements d'exécution de confiance (TEEs), la preuve d'échantillonnage (PoSP), l'apprentissage machine sans connaissance (ZKML) et l'apprentissage machine optimiste (OPML).

Les approches diffèrent sur divers aspects, à savoir le coût, le temps nécessaire et le niveau de garanties de sécurité. Il est probable que toutes les solutions mentionnées ci-dessus seront utilisées d'une manière ou d'une autre, selon les cas d'utilisation spécifiques.

Avertissement :

  1. Cet article est repris de [GateHyperbolic - e/acc]. Transmettre le titre original 'IA et vérifiabilité'. Tous les droits d'auteur appartiennent à l'auteur original [Hyperbolique - e/acc]. Si des objections sont formulées à cette réimpression, veuillez contacter le Porte Apprendreéquipe, et ils s'en occuperont rapidement.
  2. Clause de non-responsabilité : Les points de vue et opinions exprimés dans cet article sont uniquement ceux de l'auteur et ne constituent aucun conseil en investissement.
  3. L'équipe de Gate Learn traduit l'article dans d'autres langues. Copier, distribuer ou plagier les articles traduits est interdit sauf mention contraire.

Les 6 solutions émergentes de vérification de l'IA en 2025

Intermédiaire4/17/2025, 2:03:08 AM
Cet article explore les solutions de pointe dans le domaine de la vérifiabilité de l'IA en 2025, avec une analyse approfondie de six projets majeurs : EigenLayer, Hyperbolic, Mira, Atoma, Fortytwo et Lagrange. Ces initiatives adoptent des approches techniques diverses, notamment Proof-of-Sampling (PoSP), Trusted Execution Environments (TEEs) et Zero-Knowledge Proofs (ZKPs), pour relever le défi de la fiabilité des sorties de l'IA. Chaque solution offre des avantages uniques et est adaptée à des cas d'utilisation spécifiques, contribuant collectivement au développement de l'infrastructure décentralisée de l'IA.

Transférer le titre original 'AI and Verifiability'

Alors que les systèmes d'IA s'intègrent de plus en plus aux écosystèmes blockchain, garantir la vérifiabilité des résultats de l'IA devient un pilier pour favoriser la confiance, la transparence et la responsabilité. Cela est particulièrement critique pour la finance décentralisée (DeFi) et les applications de preuve d'identité, où l'exactitude et la fiabilité peuvent directement influencer les résultats financiers, les décisions de gouvernance et l'identité de l'utilisateur.

L'argument en faveur de l'IA vérifiable dans les systèmes décentralisés

Observabilité de l'IA

Veille à ce que les processus de prise de décision soient transparents et compréhensibles. Les parties prenantes acquièrent un aperçu de la manière dont les conclusions sont tirées - vital lorsque les décisions influencent les transactions on-chain ou la gouvernance à grande échelle.

Traçabilité de la source

Suit les données, les paramètres et les architectures de modèles utilisés pour générer des prédictions en IA. En établissant la provenance, les utilisateurs savent d'où viennent les données d'entraînement et quels modèles ont été utilisés, renforçant la confiance et réduisant la probabilité de désinformation.

Vérification de la sortie

Confirme que les sorties finales de l'IA sont à la fois précises et non modifiées. Dans un contexte décentralisé, cela implique souvent des mécanismes de preuve (par exemple, preuves de connaissance nulle, consensus d'échantillonnage) pour garantir que les calculs ou les inférences n'ont pas été altérés hors chaîne.

Défis de la vérifiabilité de l'IA on-chain

Alors que les blockchains excellent dans la fourniture de registres immuables et de confiance distribuée, les calculs d'IA on-chain peuvent être prohibitivement coûteux. Par exemple, la multiplication de matrices pour 1000×1000 entiers peut consommer des milliards de gaz, au-delà de la limite de gaz de bloc actuelle d'Ethereum (Zheng et al., 2021). Par conséquent, la plupart des projets d'IA reposent sur le calcul hors chaîne avec vérification en chaîne.

Cependant, les approches hors chaîne introduisent de nouveaux défis :

Fraude potentielle : Sans une vérification robuste, des acteurs malveillants peuvent soumettre des données incorrectes ou manipulées.

Points faibles centralisés : S'appuyer sur des oracles hors chaîne ou des serveurs privés peut compromettre l'éthique décentralisée, conduisant à la censure ou à des points uniques de défaillance.

Ainsi, les solutions émergentes visent à maintenir des performances élevées tout en incorporant une vérification cryptographique ou basée sur l'échantillonnage, équilibrant efficacité et décentralisation.

EigenLayer

EigenLayer est un protocole de restaking qui permet aux validateurs d'Ethereum de "restituer" leur ETH pour sécuriser des services décentralisés supplémentaires, connus sous le nom de Services Validés de Manière Active (AVS). Plutôt que d'avoir besoin d'un nouvel ensemble de validateurs pour chaque tâche spécialisée (par exemple, validation de l'IA, opérations cross-chain), EigenLayer réutilise le réseau de validateurs robuste et décentralisé d'Ethereum.

EigenLayer améliore la sécurité en permettant aux nouveaux Services de Validation Actifs (AVS) de se connecter à l'ensemble de validateurs existants d'Ethereum. Cet ensemble de validateurs est déjà important, bien capitalisé et distribué géographiquement, offrant des garanties cryptéconomiques robustes sans avoir besoin de créer un nouveau réseau à partir de zéro.

En activant le restaking, EigenLayer réduit considérablement les frais opérationnels. Les projets n'ont plus besoin de créer et de maintenir leurs propres écosystèmes de validateurs, ce qui réduit à la fois les coûts d'infrastructure et les barrières à la création de nouveaux services décentralisés on-chain.

De plus, le système offre une grande flexibilité. AVS peut personnaliser sa propre logique de consensus et de validation tout en héritant de la sécurité de la couche de base d'Ethereum, ce qui fait d'EigenLayer une base idéale pour des applications décentralisées modulaires, sécurisées et évolutives.

Preuve de l'échantillonnage hyperbolique (PoSP) de Gate

Hyperbolic Labs présente Proof of Sampling (PoSP), une alternative efficace et évolutive aux preuves de fraude traditionnelles zkML ou optimistes pour la validation de l'IA. Ce nouveau protocole de vérification basé sur l'échantillonnage garantit que nos utilisateurs peuvent faire confiance aux résultats de leurs modèles en cours de formation et d'exécution sur notre réseau GPU décentralisé. Ce protocole, connu sous le nom de Proof of Sampling (PoSP), est la nouvelle norme en matière de vérification en IA.

Développé par l'équipe Hyperbolic en collaboration avec des chercheurs de l'UC Berkeley et de l'Université Columbia, PoSP utilise la théorie des jeux pour sécuriser les systèmes décentralisés. Il valide un échantillon stratégique de résultats et met en place un processus d'arbitrage pour inciter les nœuds malhonnêtes à adopter un comportement 100% honnête à travers le réseau.

La preuve des preuves spontanées (PoSP) offre plusieurs avantages clés : elle permet une vérification efficace en ajoutant moins de 1 % de surcharge computationnelle, permettant aux nœuds de maintenir des vitesses de fonctionnement proches de la vitesse native. Sa sécurité robuste garantit que les participants restent honnêtes, car les vérifications aléatoires rendent la fraude trop risquée pour être rentable. Grâce aux incitations de la théorie des jeux, PoSP crée un équilibre de Nash à stratégie pure où le comportement honnête est toujours le choix rationnel. Enfin, PoSP est hautement évolutif pour les services d'IA, capable de prendre en charge des charges de travail d'IA décentralisées à grande échelle tout en garantissant que les processus de calcul et d'inférence à haute performance restent vérifiables et dignes de confiance.

Audits aléatoires : Un ensemble rotatif de validateurs (via EigenLayer) échantillonne régulièrement et vérifie les calculs d'IA. Cette vérification continue empêche la triche systématique.

Incitations à l'équilibre de Nash: Le comportement malveillant est économiquement irrationnel pour les validateurs - des sorties malhonnêtes ou incohérentes entraînent des pénalités pouvant être réduites.

Débit élevé : Le surcoût de performance inférieur de PoSP le rend bien adapté aux cas d'utilisation nécessitant des inférences AI rapides et fréquentes.

Contrairement à d'autres solutions d'IA décentralisées, lorsque vous exécutez une inférence sur le réseau décentralisé de Hyperbolic, vous pouvez être sûr de recevoir un résultat valide.

En intégrant PoSP dans EigenLayer, les services d'IA décentralisés peuvent atteindre un cadre sûr et minimisé en termes de confiance qui peut gérer un nombre croissant de demandes d'inférence sans sacrifier la décentralisation ou l'efficacité coût.

Validation aléatoire : Les validateurs sont sélectionnés de manière aléatoire pour vérifier les sorties, garantissant des résultats impartiaux.

Prise en charge évolutive de AVS : PoSP réduit les exigences computationnelles, permettant à EigenLayer de sécuriser efficacement des services à grande échelle.

Dissuasion de la fraude : des sanctions strictes rendent la malhonnêteté non rentable, tandis que le comportement honnête reste la stratégie optimale.

Le protocole EigenLayer combiné à notre protocole de preuve d'échantillonnage transforme fondamentalement la manière dont nous sécurisons les services décentralisés. Nous offrons désormais une infrastructure évolutive, fiable et résistante à la fraude à une fraction du coût. - Jasper Zhang, PDG de Hyperbolic


Lisez le document complet sur PoSP ici

Mira

Mira Network vise à relever un défi fondamental en matière d'IA, à savoir la tendance des grands modèles linguistiques (LLM) à générer des informations incorrectes. Conçu pour réduire les hallucinations et maximiser la précision de la production sans surveillance humaine, Mira s'appuie sur un réseau décentralisé de nœuds indépendants pour vérifier de manière fiable les sorties d'IA en parallèle.

Il y a trois étapes dans l'architecture de Mira

Binarisation

Le processus de fractionnement des sorties en 'réclamations' plus simples.

Vérification Distribuée

Les affirmations ci-dessus sont vérifiées par un réseau de nœuds vérificateurs qui exécutent des modèles spécialisés pour vérifier les affirmations. La vérification se fait sous forme de questions à choix multiples. Les affirmations à vérifier sont réparties de manière aléatoire entre les vérificateurs, ce qui rend la collusion difficile.

Preuve de vérification

Un mécanisme de consensus hybride combinant la Preuve de Travail (PoW) et la Preuve d'Enjeu (PoS) est utilisé. Chaque vérificateur doit miser pour participer à la vérification. Cette approche garantit que les vérificateurs effectuent réellement des inférences, au lieu de simplement attester. La mise d'un vérificateur sera réduite si leur sortie est constamment en désaccord avec le consensus.

Une fois que le consensus a été atteint par le réseau sur une sortie, un certificat cryptographique est généré et écrit dans la blockchain, créant un enregistrement immuable de faits vérifiés.


Source:Mira Network Whitepaper

La confidentialité est un aspect clé de la conception de Mira. Étant donné que les réclamations sont fragmentées de manière aléatoire, il n'est pas possible pour un seul opérateur de nœud de reconstruire la sortie d'origine. De plus, les réponses de vérification des vérificateurs indépendants sont conservées privées avant le consensus, empêchant les fuites d'informations.

Mira cherche à vérifier du contenu de plus en plus complexe, comprenant du code, des données structurées et du contenu multimédia. À l'avenir, Mira reconstruira également du contenu invalide lorsqu'il est détecté, alliant précision et rapidité dans la production d'IA. Finalement, le réseau Mira pourra accumuler des faits économiquement sécurisés, créant ainsi une base de données pour la vérification des faits.

À mesure que l'utilisation du réseau augmente - une génération de frais plus élevée - de meilleures récompenses de vérification - attire plus d'opérateurs de nœuds - une précision, un coût et une latence améliorés dans la vérification des réponses

Atoma

Atoma est un réseau d'exécution d'IA décentralisé, privé et vérifiable, en direct sur le mainnet de Sui. L'architecture de base se compose de trois éléments : (a) couche de calcul et; (b) couche de vérification et; (c) couche de confidentialité.

Couche de calcul

Un réseau mondial de nœuds d'exécution qui traite les demandes d'inférence. Un grand nombre de nœuds sont disponibles en travaillant avec divers centres de données et des périphériques de bord comme les appareils numériques des individus.

Avec Atoma, les poids du modèle sont disponibles localement sur les nœuds, ce qui augmente la vitesse d'inférence lorsqu'une demande a été reçue. De plus, les demandes reçues sont acheminées vers le nœud le plus adapté, correspondant à la tâche avec les performances et les coûts correspondants.

Atoma se concentre sur l'optimisation de l'efficacité de l'exécution des inférences grâce à plusieurs fonctionnalités, notamment FlashAttention et Paged Attention, contribuant toutes deux à réduire la surcharge computationnelle.

Couche de vérification

L'intégrité du calcul est vérifiée grâce à un consensus d'échantillonnage. C'est un processus où les nœuds sont sélectionnés au hasard pour exécuter une inférence et générer un hachage cryptographique de la sortie. Si tous les hachages générés par l'ensemble de nœuds sélectionné correspondent, la sortie de l'inférence est vérifiée. En cas de divergence entre les hachages générés, le réseau cherchera le nœud malhonnête, qui sera pénalisé par une réduction de sa participation.

Les chances qu'un attaquant malveillant puisse contrôler la moitié ou plus de la puissance GPU de l'ensemble du réseau pour manipuler le système sont très faibles, et deviennent encore plus difficiles à mesure que le réseau de nœuds se développe. Le nombre de nœuds sélectionnés pour l'échantillonnage est flexible, pour les tâches à plus enjeu, un plus grand ensemble de nœuds peut être choisi.

Couche de confidentialité

Atoma met l'accent sur la sécurisation et la confidentialité des données des utilisateurs en exécutant des calculs dans un environnement d'exécution sûr (TEE). Les données saisies par les utilisateurs sont chiffrées et ne sont déchiffrées que dans le TEE. Cela empêche toute autre partie de la blockchain de consulter les données de l'utilisateur. Une fois l'inférence effectuée, la sortie est chiffrée avant d'être renvoyée aux utilisateurs.

Malgré le fait que ce soit une solution sécurisée, il convient de noter qu'elle implique un compromis en termes de surcharge de calcul plus élevée, ce qui pourrait entraîner des frais plus élevés pour les utilisateurs.

Réseau Aizel

Tout comme Atoma Network ci-dessus, Aizel Network opte pour une approche basée sur la technologie TEE. La différence ici est qu'Aizel a intégré le calcul multipartite (MPC) dans son flux de travail, où les tâches d'inférence sont acheminées vers différents TEE. L'objectif est de décentraliser le réseau, en veillant à ce que l'inférence soit toujours possible même lorsqu'un TEE est piraté ou hors service.

Quarante-deux

Fortytwo défend un modèle d'"inférence de swarm" construit autour de Petits Modèles Spécialisés (SLMs). Au lieu de s'appuyer sur une seule intelligence artificielle massive et monolithique, le réseau orchestre plusieurs modèles gérés par des contributeurs, chacun étant ajusté finement pour des tâches ou domaines spécifiques. Ces modèles travaillent en parallèle, vérifiant, affinant et se recoupant mutuellement pour fournir des inférences plus précises et fiables.

Cette structure décentralisée aborde les problèmes auxquels sont souvent confrontés les modèles uniques et volumineux, tels que les goulots d'étranglement dans la formation, les exigences coûteuses en matériel et les points de défaillance uniques. En distribuant l'intelligence à travers de nombreux modèles et contributeurs plus petits, Fortytwo garantit à la fois la scalabilité et la tolérance aux pannes.

1. Petits modèles spécialisés (SLM)

Initialisation basée sur l'intention

Avant le début de toute tâche, les contributeurs spécifient l'objectif, le budget et les contraintes. Cette approche aligne chaque SLM sur la mission globale, que ce soit la résumé de texte, l'analyse de code ou toute autre inférence spécialisée.

Spécialisations définies par les contributeurs

Les opérateurs de nœuds individuels apportent leurs propres modèles peaufinés au réseau. Ils conservent un contrôle total sur les poids, les biais et les données propriétaires, garantissant ainsi la confidentialité de chaque propriétaire de modèle. Ces modèles spécialisés peuvent se concentrer sur des domaines tels que l'analyse des sentiments, l'analyse de texte juridique ou même la génération de code spécifique au domaine.

Confidentialité des poids et des biais

Un aspect critique de Gate est que les contributeurs n'ont pas à partager les données brutes du modèle interne. Seuls les résultats de l'inférence sont partagés avec le réseau. Cette conception préserve la propriété intellectuelle de chaque propriétaire de modèle et contribue à atténuer les risques liés à l'exposition de données sensibles.

2. Inférence de Swarm & Évaluation par les Pairs

Collaboration Multi-SLM

Les tâches sont réparties entre 7 à 8 (ou plus) SLM spécialisés, chacun fournissant une perspective de domaine unique. En divisant les tâches plus importantes en de plus petits sous-problèmes, le réseau exploite plus efficacement les forces de chaque modèle.

Mélange plat d'experts (MoE)

Plutôt que d'empiler des sous-experts sur plusieurs couches, Fortytwo utilise une approche MoE "plate", où chaque modèle traite les données de manière indépendante. Cette conception peut être particulièrement efficace car elle évite la complexité de la gestion hiérarchique, permettant aux experts de se concentrer uniquement sur leur sous-tâche respective.

Détection collective des erreurs

L'évaluation par les pairs joue un rôle crucial dans le maintien de l'exactitude de l'inférence. Lorsque les modèles sont en désaccord, le réseau signale les divergences pour une analyse plus approfondie. Ce processus de vérification croisée est crucial pour détecter les erreurs tôt et garantir une production de haute qualité.

3. Latence faible & Calcul distribué

Matériel grand public

Fortytwo est optimisé pour des appareils comme Apple Silicon et les GPU RTX, ce qui abaisse les barrières financières et élargit la base des opérateurs de nœuds potentiels. Cette approche démocratise l'IA en permettant à un plus grand nombre de personnes, et non seulement aux grands centres de données, de participer.

Clusters de déploiement

De nombreux opérateurs de nœuds choisissent des plateformes cloud (par exemple, AWS) ou des clusters auto-hébergés pour minimiser la latence. Les clusters bien coordonnés deviennent particulièrement précieux dans des scénarios sensibles au temps où même de petits retards peuvent avoir un impact significatif sur l'expérience utilisateur.

4. Communauté d'opérateurs de nœuds

Participation croissante

Des milliers de participants ont exprimé leur intérêt pour l'exécution de nœuds d'inférence, créant un réseau diversifié et distribué. Cette expansion met en ligne davantage de ressources de calcul, augmentant ainsi encore la capacité de traitement et la résilience.

Contributions au modèle de type Wikipedia

Tout comme les rédacteurs de Wikipédia collaborent sur des articles, chaque opérateur de nœud peut améliorer ou peaufiner des modèles spécialisés et partager des techniques d'inférence améliorées. Cette maintenance et ce raffinement collectifs favorisent l'innovation continue et élèvent l'intelligence globale du réseau.

Lagrange

Lagrange est à la pointe de l'utilisation de la technologie Zero-Knowledge (ZK) pour apporter la vérifiabilité à l'IA. Leur devise - "L'avenir de l'IA est ZK, et l'avenir de l'humanité est Lagrange" - souligne la croyance selon laquelle, à mesure que l'IA évolue vers la superintelligence, nous devons garantir la transparence et la confiance dans le fonctionnement de ces modèles.

DeepProve: Haute performance zkML

  • Preuve du modèle correct : DeepProve confirme de manière cryptographique que le bon modèle d'IA a été utilisé pour une inférence donnée, ne laissant aucune place à la manipulation ou à la fausse représentation.
  • Preuve de sortie correcte: il garantit également que la sortie est conforme à ce que le modèle produirait réellement, empêchant les acteurs malveillants d'injecter de faux résultats.
  • Améliorations des performances: Se vante d'une génération de preuves 158 fois plus rapide et d'une vérification 671 fois plus rapide que de nombreuses solutions zkML existantes, rendant le déploiement à grande échelle réalisable.

En supprimant les interactions d'IA "boîte noire", Lagrange garantit que les utilisateurs n'ont pas à faire aveuglément confiance à l'IA. Dans les environnements décentralisés où la minimisation de la confiance est primordiale, la certitude cryptographique concernant l'intégrité du modèle et la correction de la sortie devient essentielle.

De plus, Inference Labs fonctionne comme le bras axé sur l'application de Lagrange, faisant le lien entre la recherche et les déploiements pratiques. Alors que Lagrange se concentre sur la conception cryptographique et des circuits de base, Inference Labs veille à ce que ces avancées soient prêtes pour la production.

Intégrations du monde réel

Intègre le zkML dans les pipelines d'apprentissage automatique existants, en mettant l'accent sur des secteurs tels que DeFi, les jeux, la santé et la provenance de la chaîne d'approvisionnement.

Partenaires avec des leaders de l'industrie pour tester les nouvelles fonctionnalités de Lagrange dans des conditions réelles (par exemple, un grand nombre de paramètres, des exigences strictes en matière de latence).

EZKL

EZKL est un système open-source pour créer une IA vérifiable et des analyses en utilisant des preuves de connaissance nulle (ZKPs). Il permet aux développeurs de prouver que les modèles d'IA ont été exécutés correctement sans révéler de données sensibles ou de détails de modèle propriétaire. Inspiré par des systèmes comme le Face ID d'Apple, EZKL étend une sécurité de modèle incompromisable à n'importe quel modèle sur n'importe quel appareil, sans compter sur du matériel spécialisé comme les TEEs.

Infrastructure de preuve de connaissance nulle

EZKL automatise l'ensemble du cycle de vie de ZKP, de la compilation du modèle à la génération et la vérification de la preuve. Les utilisateurs fournissent des modèles d'IA au format ONNX, que EZKL compile en circuits compatibles ZK à l'aide d'une version optimisée du système de preuve Halo2. Le système génère ensuite des preuves cryptographiques d'exécution correcte du modèle qui peuvent être vérifiées sur n'importe quel appareil.

Ce processus cryptographique permet une confiance décentralisée dans des applications d'IA à hauts enjeux, telles que la prise de décision financière, l'authentification biométrique et la validation de l'inférence en temps réel.

SNARKs collaboratifs (Cosnarks)

EZKL a récemment introduit des SNARKs collaboratifs (cosnarks), permettant à deux parties - telles qu'un propriétaire de modèle et un propriétaire de données - de générer conjointement une preuve ZK sans que l'une ou l'autre partie ne révèle ses actifs confidentiels. Contrairement aux systèmes de preuve MPC délégués, les cosnarks éliminent les hypothèses de confiance supplémentaires en limitant le calcul aux seules parties impliquées.

Cet avancement permet des cas d'utilisation tels que le scoring de crédit privé, les stratégies de trading confidentielles et la vérification d'identité à connaissance zéro. La mise en œuvre exploite la bibliothèque MPC optimisée 2PC de Renegade et est intégrée directement dans Lilith, la couche d'orchestration cloud d'EZKL.

Support du modèle et flexibilité

EZKL prend en charge un large éventail d'architectures AI/ML, y compris les CNN, les RNN, les transformateurs de style GPT, les arbres de décision et les modèles de diffusion stables. Tout modèle compatible avec la norme ONNX peut être converti en un circuit ZK.

En abstraction de la logique du modèle en circuits mathématiques, EZKL permet une inférence préservant la confidentialité dans des secteurs tels que la finance, la santé et l'identité. La logique basée sur les arbres, les mécanismes d'attention et les opérations de matrice à grande échelle sont tous pris en charge dans le cadre soutenu par Halo2.

Expérience du développeur

EZKL privilégie l'accessibilité et l'abstraction de la complexité. Les développeurs n'ont pas besoin de connaissances cryptographiques préalables, d'expérience en conception de circuits ou de compétences avancées en DevOps. Le système offre des liaisons en CLI, Python, JavaScript et Rust, ce qui facilite l'intégration des flux de travail ZK dans les pipelines ML existants.

Génération automatique de contraintes, commandes de preuve simplifiées et intégration transparente avec les outils d'orchestration permettent aux développeurs de se concentrer uniquement sur la logique de l'application.

Protocole ORA

ORA est un protocole d'oracle agnostique de la chaîne qui relie l'IA et la blockchain, permettant aux développeurs de construire des applications entièrement décentralisées et sans confiance alimentées par l'apprentissage machine vérifiable. À travers son infrastructure, ORA apporte l'inférence IA, la génération de contenu et le calcul complexe directement onchain, supprimant la dépendance aux API hors chaîne ou au calcul centralisé. Son innovation principale réside dans la combinaison de l'exécution de l'IA avec des preuves cryptographiques, créant des pipelines d'IA programmables avec une vérifiabilité intégrée.

Le protocole permet à n'importe quel développeur de construire des applications où les sorties de l'IA, qu'il s'agisse d'une réponse de modèle linguistique, d'une image générée ou d'une déclaration vérifiée, peuvent être intégrées dans des contrats intelligents avec des garanties d'auditabilité et de correction.

Oracle Onchain AI (OAO)

L'Oracle Onchain AI (OAO) est le produit phare d'ORA. Il permet aux contrats intelligents de demander, recevoir et agir sur les résultats des inférences IA exécutées hors chaîne, mais vérifiées et réglées sur chaîne. Les développeurs peuvent appeler un travail d'inférence IA via le réseau opML d'ORA. Le résultat est renvoyé via une fonction de rappel dans le contrat de l'utilisateur, rendant les applications sur chaîne natives de l'IA et entièrement autonomes.

OAO prend en charge plusieurs gros modèles - comme LLaMA3, Stable Diffusion, OpenLM Chat/Score - fonctionnant via une infrastructure vérifiable. Les développeurs peuvent intégrer OAO sur n'importe quelle chaîne compatible avec l'EVM, et des contrats intelligents pré-construits comme Prompt et SimplePrompt permettent un prototypage rapide en tenant compte de l'optimisation du gas.

opML et flux de vérifiabilité

Le système d'apprentissage automatique optimiste (opML) d'ORA alimente sa couche de vérifiabilité. Lorsqu'un travail d'inférence est lancé, le résultat est publié onchain avec une période de défi. Pendant ce temps, les validateurs opML peuvent vérifier le résultat et, s'il est incorrect, soumettre une preuve de fraude. Le bon résultat remplace celui contesté. Cela garantit que les sorties d'IA intégrées dans les contrats intelligents sont vérifiables, résistantes à la censure et économiquement sécurisées.

Cette approche optimiste équilibre les performances et la décentralisation. Contrairement au zkML, qui peut nécessiter une lourde computation initiale, opML rend économiquement irrationnel le succès d'un comportement malhonnête, surtout lorsque le réseau de validateurs se développe.

Intégration du développeur

Les développeurs interagissent avec Gate.io à travers une interface bien documentée et modulaire. Pour intégrer l'IA dans un smart contract, un développeur hérite de AIOracleCallbackReceiver et implémente la fonction aiOracleCallback() pour recevoir les résultats. Ils peuvent ensuite appeler l'oracle pour initier l'inférence en utilisant les identifiants de modèle, les données d'entrée et une adresse de rappel.

Quatre modèles sont actuellement déployés sur Arbitrum, et l'intégration peut être aussi simple que d'utiliser les modèles Prompt d'ORA. L'infrastructure prend également en charge des cas d'utilisation plus avancés grâce à son orchestration informatique alimentée par Lilith, permettant une inférence plus rapide et des charges de travail à haut débit.

Offre de Modèle Initial (IMO)

ORA a créé le cadre de l'offre de modèle initial (IMO) pour décentraliser la propriété, les revenus et la gouvernance des modèles d'IA. Les IMO tokenisent les modèles d'IA grâce à une structure à double jeton :

  • ERC-7007: Ancres les sorties générées par l'IA vérifiables (par exemple, images, prédictions) directement onchain.
  • ERC-7641: Distribue les revenus de l'utilisation du modèle aux détenteurs de jetons, créant des systèmes d'IA alignés sur les incitations, gouvernés par la communauté.

En activant la gouvernance et la monétisation basées sur les jetons, les IMOs financent le développement open source tout en veillant à ce que l'infrastructure IA reste résistante à la censure, accessible mondialement et collectivement détenue.

Conclusion

Alors que le secteur de l'IA continue de croître, le besoin de résultats d'IA vérifiables devient de plus en plus critique. Il ressort de ce qui précède qu'il existe différentes approches pour garantir la confiance dans les solutions d'IA décentralisées, notamment les environnements d'exécution de confiance (TEEs), la preuve d'échantillonnage (PoSP), l'apprentissage machine sans connaissance (ZKML) et l'apprentissage machine optimiste (OPML).

Les approches diffèrent sur divers aspects, à savoir le coût, le temps nécessaire et le niveau de garanties de sécurité. Il est probable que toutes les solutions mentionnées ci-dessus seront utilisées d'une manière ou d'une autre, selon les cas d'utilisation spécifiques.

Avertissement :

  1. Cet article est repris de [GateHyperbolic - e/acc]. Transmettre le titre original 'IA et vérifiabilité'. Tous les droits d'auteur appartiennent à l'auteur original [Hyperbolique - e/acc]. Si des objections sont formulées à cette réimpression, veuillez contacter le Porte Apprendreéquipe, et ils s'en occuperont rapidement.
  2. Clause de non-responsabilité : Les points de vue et opinions exprimés dans cet article sont uniquement ceux de l'auteur et ne constituent aucun conseil en investissement.
  3. L'équipe de Gate Learn traduit l'article dans d'autres langues. Copier, distribuer ou plagier les articles traduits est interdit sauf mention contraire.
Lancez-vous
Inscrivez-vous et obtenez un bon de
100$
!