Las 6 soluciones emergentes de verificación de IA en 2025

Intermedio4/17/2025, 2:03:08 AM
Este artículo explora soluciones de vanguardia en el campo de la verificabilidad de la IA en 2025, con un análisis profundo de seis proyectos principales: EigenLayer, Hyperbolic, Mira, Atoma, Fortytwo y Lagrange. Estas iniciativas adoptan diversos enfoques técnicos, incluyendo Prueba de Muestreo (PoSP), Entornos de Ejecución Confiables (TEEs) y Pruebas de Conocimiento Cero (ZKPs), para abordar el desafío de la confiabilidad de la salida de la IA. Cada solución ofrece ventajas únicas y se adapta a casos de uso específicos, avanzando colectivamente en el desarrollo de la infraestructura de IA descentralizada.

Reenviar el Título Original 'AI and Verifiability'

A medida que los sistemas de IA se integran cada vez más con los ecosistemas de blockchain, garantizar la verificabilidad de las salidas de IA se convierte en una piedra angular para fomentar la confianza, la transparencia y la responsabilidad. Esto es especialmente crítico para las aplicaciones de finanzas descentralizadas (DeFi) y de prueba de identidad, donde la precisión y la fiabilidad pueden influir directamente en los resultados financieros, las decisiones de gobernanza y la identidad del usuario.

El caso de la IA verificable en sistemas descentralizados

AI Observabilidad

Garantiza que los procesos de toma de decisiones sean transparentes y comprensibles. Los interesados obtienen información sobre cómo se derivan las conclusiones, es vital cuando las decisiones influyen en transacciones en cadena o gobernanza a gran escala.

Rastreabilidad de la fuente

Rastrea los datos, parámetros y arquitecturas de modelos utilizados para generar predicciones de IA. Al establecer la procedencia, los usuarios saben de dónde provienen los datos de entrenamiento y qué modelos se emplearon, lo que mejora la confianza y reduce la probabilidad de desinformación.

Verificación de salida

Confirma que las salidas finales de IA son precisas y no han sido alteradas. En un contexto descentralizado, esto a menudo implica mecanismos de prueba (por ejemplo, pruebas de conocimiento cero, consenso de muestreo) para asegurar que los cálculos o inferencias no han sido manipulados fuera de la cadena.

Desafíos en la Verificabilidad de la IA en la Cadena

Si bien las blockchains son excelentes para proporcionar registros inmutables y confianza distribuida, los cálculos de IA en cadena pueden resultar prohibitivamente caros. Por ejemplo, la multiplicación de matrices para 1000×1000 enteros puede consumir miles de millones de gas, más allá del límite de gas por bloque actual de Ethereum (Zheng et al., 2021). En consecuencia, la mayoría de los proyectos de IA dependen de la computación fuera de la cadena con verificación en cadena.

Sin embargo, los enfoques fuera de la cadena introducen nuevos desafíos:

Posible fraude: Sin una verificación sólida, los actores malintencionados pueden enviar datos incorrectos o manipulados.

Puntos Débiles Centralizados: Depender de oráculos fuera de la cadena o servidores privados puede socavar el ethos descentralizado, lo que lleva a la censura o puntos únicos de fallo.

Por lo tanto, las soluciones emergentes apuntan a mantener un alto rendimiento mientras incorporan verificación criptográfica o basada en muestreo, equilibrando eficiencia y descentralización.

EigenLayer

EigenLayer es un protocolo de restaking que permite a los validadores de Ethereum "restakear" su ETH para asegurar servicios descentralizados adicionales, conocidos como Servicios de Validación Activa (AVS). En lugar de necesitar un nuevo conjunto de validadores para cada tarea especializada (por ejemplo, validación de IA, operaciones entre cadenas), EigenLayer reutiliza la sólida y descentralizada red de validadores de Ethereum.

EigenLayer mejora la seguridad al permitir que los nuevos Servicios Validados Activamente (AVS) se conecten al conjunto de validadores existente de Ethereum. Este conjunto de validadores ya es grande, está bien capitalizado y distribuido geográficamente, lo que ofrece garantías criptoeconómicas sólidas sin necesidad de arrancar una nueva red desde cero.

Al habilitar el restaking, EigenLayer reduce significativamente los costos operativos. Los proyectos ya no necesitan crear y mantener sus propios ecosistemas de validadores, lo que reduce tanto los costos de infraestructura como las barreras para lanzar nuevos servicios descentralizados en la cadena.

Además, el sistema ofrece una gran flexibilidad. AVS puede personalizar su propio consenso y lógica de validación mientras hereda la seguridad de la capa base de Ethereum, lo que hace que EigenLayer sea una base ideal para aplicaciones descentralizadas modulares, seguras y escalables.

Prueba de Muestreo Hiperbólico (PoSP) de Gate

Hyperbolic Labs presenta Proof of Sampling (PoSP), una alternativa eficiente y escalable a las tradicionales pruebas zkML o pruebas de fraude optimistas para la validación de la inteligencia artificial. Este novedoso protocolo de verificación basado en muestreo garantiza que nuestros usuarios puedan confiar en los resultados de sus modelos que se están entrenando y ejecutando en nuestra red descentralizada de GPU. Este protocolo, conocido como Proof of Sampling (PoSP), es el nuevo estándar de oro para la verificación en inteligencia artificial.

Desarrollado por el equipo de Gate Hiperbólica en colaboración con investigadores de la Universidad de California en Berkeley y la Universidad de Columbia, PoSP utiliza la teoría de juegos para asegurar sistemas descentralizados. Valida una muestra estratégica de resultados e implementa un proceso de arbitraje para nodos deshonestos con el fin de incentivar un comportamiento 100% honesto en toda la red.

La Prueba de Pruebas Espontáneas (PoSP) ofrece varias ventajas clave: permite una verificación eficiente al agregar menos del 1% de sobrecarga computacional, lo que permite a los nodos mantener velocidades de funcionamiento casi nativas. Su seguridad robusta garantiza que los participantes sigan siendo honestos, ya que las verificaciones aleatorias hacen que el fraude sea demasiado arriesgado para que valga la pena. A través de incentivos teóricos del juego, PoSP crea un Equilibrio de Nash de estrategia pura donde el comportamiento honesto siempre es la elección racional. Finalmente, PoSP es altamente escalable para servicios de IA, capaz de soportar cargas de trabajo de IA descentralizadas a gran escala, al tiempo que garantiza que los procesos de cálculo e inferencia de alto rendimiento sigan siendo verificables y confiables.

Auditorías Aleatorias: Un conjunto rotativo de validadores (a través de EigenLayer) muestrean y verifican regularmente cálculos de IA. Esta verificación continua evita el fraude sistemático.

Incentivos de Equilibrio de Nash: El comportamiento malicioso es económicamente irracional para los validadores, las salidas deshonestas o inconsistentes llevan a penalizaciones que se pueden reducir.

Alta capacidad de procesamiento: la menor sobrecarga de rendimiento de PoSP lo hace adecuado para casos de uso que requieren inferencias de IA rápidas y frecuentes.

A diferencia de otras soluciones de IA descentralizadas, cuando ejecutas una inferencia en la red descentralizada de Hyperbolic, puedes tener la confianza de que estás recibiendo un resultado válido.

Al integrar PoSP en EigenLayer, los servicios de IA descentralizados pueden lograr un marco seguro y minimizado en confianza que puede manejar un número creciente de solicitudes de inferencia sin sacrificar la descentralización o la eficiencia de costos.

Validación Aleatoria: Los validadores son seleccionados al azar para verificar las salidas, asegurando resultados imparciales.

Soporte AVS escalable: PoSP reduce las demandas computacionales, lo que permite a EigenLayer asegurar servicios a gran escala de manera eficiente.

Disuasión del fraude: Las estrictas sanciones hacen que la deshonestidad no sea rentable, mientras que el comportamiento honesto sigue siendo la estrategia óptima.

“El protocolo EigenLayer combinado con nuestro protocolo de Prueba de Muestreo transforma fundamentalmente la forma en que aseguramos servicios descentralizados. Ahora ofrecemos una infraestructura escalable, confiable y resistente al fraude a una fracción del costo.” - Jasper Zhang, CEO de Hyperbolic


Lea el documento completo sobre PoSP aquí

Look

Mira Network tiene como objetivo abordar un desafío fundamental en la IA, que es la tendencia de los modelos de lenguaje grandes (LLMs) a generar información incorrecta. Diseñado para reducir alucinaciones y maximizar la precisión de la salida sin supervisión humana, Mira aprovecha una red descentralizada de nodos independientes para verificar de manera confiable las salidas de IA en paralelo.

Hay tres pasos en la arquitectura de Mira

Binarización

El proceso de desglosar las salidas en 'reclamaciones' más simples.

Verificación Distribuida

Las afirmaciones anteriores son verificadas por una red de nodos verificadores que ejecutan modelos especializados para verificar las afirmaciones. La verificación se realiza en un formato de pregunta de opción múltiple. Las afirmaciones para la verificación se dividen aleatoriamente entre los verificadores, lo que dificulta la colusión.

Prueba de Verificación

Un mecanismo de consenso híbrido que combina Prueba de Trabajo (PoW) y Prueba de Participación (PoS) es utilizado. Cada verificador necesita apostar para participar en la verificación. Este enfoque garantiza que los verificadores realmente estén realizando inferencia, en lugar de simplemente atestiguar. La apuesta de un verificador será reducida si se encuentra que su resultado se desvía constantemente del consenso.

Una vez que la red alcanza un consenso sobre una salida, se genera un certificado criptográfico que se escribe en la cadena de bloques, creando un registro inmutable de hechos verificados.


Fuente:Whitepaper de Mira Network

La privacidad es un aspecto clave del diseño de Mira. Dado que las reclamaciones están fragmentadas aleatoriamente, no es posible que un único operador de nodo reconstruya la salida original. Además, las respuestas de verificación de verificadores independientes se mantienen privadas antes del consenso, evitando fugas de información.

Mira está buscando verificar contenido cada vez más complejo, que incluye código, datos estructurados y contenido multimedia. En el futuro, Mira también reconstruirá contenido inválido cuando se detecte contenido inválido, logrando tanto precisión como velocidad en la salida de IA. Eventualmente, la Red de Mira podrá acumular hechos económicamente seguros, creando una base de datos para la verificación de hechos.

A medida que crece el uso de la red: mayor generación de tarifas, mejores premios de verificación, atrayendo a más operadores de nodos, mejorando la precisión, costos y latencia en la verificación de respuestas

Atoma

Atoma es una red de ejecución de IA descentralizada, privada y verificable, en vivo en la red principal de Sui. La arquitectura principal consta de tres elementos: (a) capa de cálculo y; (b) capa de verificación y; (c) capa de privacidad.

Capa de Cómputo

Una red global de nodos de ejecución que procesa solicitudes de inferencia. Un gran número de nodos están disponibles al trabajar con varios centros de datos y dispositivos perimetrales como los dispositivos digitales de los individuos.

Con Atoma, los pesos del modelo están disponibles localmente en los nodos, aumentando la velocidad de inferencia cuando se ha recibido una solicitud. Además, las solicitudes recibidas se dirigen al nodo más adecuado, coincidiendo la tarea con el rendimiento y el costo correspondientes.

Atoma se enfoca en optimizar la eficiencia de ejecutar inferencias a través de un par de características, incluyendo FlashAttention y Paged Attention, ambos contribuyendo a reducir la carga computacional.

Capa de verificación

La integridad del cálculo se verifica a través del consenso de muestreo. Este es un proceso en el que se seleccionan nodos al azar para ejecutar la inferencia y generar un hash criptográfico de la salida. Si todos los hashes generados por el conjunto seleccionado de nodos coinciden, la salida de la inferencia se verifica. En caso de que haya una discrepancia entre los hashes generados, la red buscará al nodo deshonesto, que será penalizado con la reducción de su participación.

Las posibilidades de que un atacante malicioso pueda controlar la mitad o más de la potencia de GPU de toda la red para manipular el sistema son muy bajas, y se vuelven aún más difíciles a medida que la red de nodos escala. El número de nodos seleccionados para muestreo es flexible, para tareas con apuestas más altas, se puede elegir un conjunto más grande de nodos.

Capa de privacidad

Atoma pone énfasis en mantener seguros y privados los datos del usuario, ejecutando cálculos en un Entorno de Ejecución Confiable (TEE). Los datos ingresados por los usuarios están encriptados y solo se descifran en el TEE. Esto evita que otras partes en la cadena de bloques puedan ver los datos del usuario. Una vez que se ha realizado la inferencia, la salida se encripta antes de devolverla a los usuarios.

A pesar de que lo anterior sea una solución segura, cabe destacar que conlleva un compromiso en cuanto a la sobrecarga computacional mayor, lo que podría resultar en tarifas más altas para los usuarios.

Aizel Network

Similar a Atoma Network anterior, Aizel Network opta por un enfoque basado en TEE. La diferencia aquí es que Aizel ha integrado la Computación Multi-Parte (MPC) en su flujo de trabajo, donde las tareas de inferencia se dirigen a diferentes TEE. Esto tiene como objetivo descentralizar la red, asegurando que la inferencia siga siendo posible incluso cuando un TEE sea hackeado o esté inactivo.

Cuarenta y dos

Fortytwo defiende un modelo de “inferencia en enjambre” construido en torno a Modelos Pequeños y Especializados (SLMs). En lugar de depender de una única IA masiva y monolítica, la red orquesta múltiples modelos dirigidos por contribuyentes, cada uno ajustado para tareas o dominios específicos. Estos modelos trabajan en paralelo—verificando, refinando y cruzando las salidas de los demás—para ofrecer inferencias más precisas y confiables.

Esta estructura descentralizada aborda problemas que a menudo enfrentan los modelos únicos y grandes, como cuellos de botella en el entrenamiento, requisitos costosos de hardware y puntos únicos de falla. Al distribuir la inteligencia en numerosos modelos y contribuyentes más pequeños, Fortytwo garantiza tanto la escalabilidad como la tolerancia a fallas.

1. Modelos Especializados Pequeños (SLMs)

Inicialización centrada en la intención

Antes de que comience cualquier tarea, los colaboradores especifican el objetivo, el presupuesto y las restricciones. Este enfoque alinea cada SLM con la misión general, ya sea resumir texto, analizar código u cualquier otra inferencia especializada.

Especializaciones Definidas por el Contribuidor

Los operadores de nodos individuales traen sus propios modelos ajustados a la red. Conservan el control total sobre los pesos, sesgos y datos propietarios, asegurando la privacidad para cada propietario de modelo. Estos modelos especializados pueden centrarse en áreas como análisis de sentimientos, análisis de texto legal o incluso generación de código específico de dominio.

Privacidad de Pesos & Biases

Un aspecto crítico de Fortytwo es que los contribuyentes no tienen que compartir los detalles internos del modelo en bruto. Solo se comparten los resultados de la inferencia con la red. Este diseño preserva la propiedad intelectual de cada propietario del modelo y ayuda a mitigar los riesgos asociados con la exposición de datos sensibles.

2. Inferencia de Enjambre y Evaluación de Pares

Colaboración Multi-SLM

Las tareas se dividen entre 7-8 (o más) SLM especializados, cada uno proporcionando una perspectiva de dominio única. Al dividir tareas más grandes en subproblemas más pequeños, la red aprovecha de manera más efectiva las fortalezas de cada modelo.

Flat Mixture-of-Experts (MoE)

En lugar de apilar subexpertos en múltiples capas, Fortytwo utiliza un enfoque MoE "plano", donde cada modelo procesa los datos de forma independiente. Este diseño puede ser particularmente eficiente porque evita la complejidad de la compuerta jerárquica, permitiendo que los expertos se centren únicamente en sus respectivas sub tareas.

Detección de Errores Colectiva

La evaluación entre pares juega un papel fundamental en mantener la precisión de la inferencia. Cuando los modelos no están de acuerdo, la red señala las discrepancias para un análisis más profundo. Este proceso de verificación cruzada es crucial para detectar errores tempranamente y garantizar una producción de alta calidad.

3. Baja latencia & Computación distribuida

Hardware de grado de consumidor

Fortytwo está optimizado para dispositivos como Apple Silicon y GPU RTX, lo que reduce las barreras de costos y amplía la base de posibles operadores de nodos. Este enfoque democratiza la IA al permitir que más individuos, y no solo grandes centros de datos, participen.

Clusters de implementación

Muchos operadores de nodos eligen plataformas en la nube (por ejemplo, AWS) o clústeres alojados en sus propios servidores para minimizar la latencia. Los clústeres bien coordinados se vuelven especialmente valiosos en escenarios sensibles al tiempo donde incluso pequeños retrasos pueden impactar significativamente la experiencia del usuario.

4. Comunidad de Operadores de Nodos

Participación en crecimiento

Miles de participantes han expresado interés en ejecutar nodos de inferencia, creando una red diversa y distribuida. Esta expansión aporta más recursos computacionales en línea, aumentando aún más la capacidad de procesamiento y la resiliencia.

Contribuciones al Modelo Similar a Wikipedia

Similar to how Wikipedia editors collaborate on articles, each node operator can enhance or fine-tune specialized models and share improved inference techniques. This collective maintenance and refinement fosters continuous innovation and elevates the overall intelligence of the network.

Lagrange

Lagrange está a la vanguardia en el uso de la tecnología de conocimiento cero (ZK) para brindar verificabilidad a la inteligencia artificial. Su lema, "El futuro de la IA es ZK, y el futuro de la humanidad es Gate", subraya la creencia de que, a medida que la IA evoluciona hacia la superinteligencia, debemos garantizar transparencia y confianza en cómo funcionan estos modelos.

DeepProve: Alto rendimiento zkML

  • Prueba de modelo correcto: DeepProve confirma criptográficamente que se utilizó el modelo de IA correcto para una inferencia dada, sin dejar margen para manipulación o tergiversación.
  • Prueba de Salida Correcta: También garantiza que la salida se alinee con lo que el modelo produciría genuinamente, evitando que actores malintencionados inyecten resultados falsos.
  • Mejoras de rendimiento: Presume de una generación de prueba 158 veces más rápida y una verificación 671 veces más rápida que muchas soluciones zkML existentes, lo que hace factible la implementación a gran escala.

Al eliminar las interacciones de IA de “caja negra”, Lagrange garantiza que los usuarios no tengan que confiar ciegamente en la IA. En entornos descentralizados donde la minimización de la confianza es fundamental, la certeza criptográfica sobre la integridad del modelo y la corrección de la salida se vuelve esencial.

Además, Inference Labs opera como el brazo enfocado en aplicaciones de Lagrange, que conecta la investigación y las implementaciones prácticas. Mientras Lagrange se concentra en el diseño criptográfico y de circuitos básicos, Inference Labs se asegura de que estos avances estén listos para la producción.

Integraciones del mundo real

Incrusta zkML en las canalizaciones existentes de aprendizaje automático, centrándose en sectores como DeFi, juegos, salud y procedencia de la cadena de suministro.

Colabora con líderes de la industria para probar a fondo las nuevas características de Lagrange bajo restricciones del mundo real (por ejemplo, grandes recuentos de parámetros, estrictos requisitos de latencia).

EZKL

EZKL es un sistema de código abierto para crear IA y análisis verificables utilizando pruebas de conocimiento cero (ZKPs). Permite a los desarrolladores demostrar que los modelos de IA se ejecutaron correctamente sin revelar datos sensibles o detalles del modelo patentado. Inspirado en sistemas como el Face ID de Apple, EZKL extiende la seguridad del modelo incuestionable a cualquier modelo en cualquier dispositivo, sin depender de hardware especializado como TEEs.

Infraestructura de Prueba de Conocimiento Cero

EZKL automatiza todo el ciclo de vida de ZKP, desde la compilación del modelo hasta la generación y verificación de la prueba. Los usuarios proporcionan modelos de IA en formato ONNX, que EZKL compila en circuitos amigables con ZK utilizando una versión optimizada del sistema de demostración Halo2. El sistema luego genera pruebas criptográficas de la ejecución correcta del modelo que se pueden verificar en cualquier dispositivo.

Este proceso criptográfico permite confianza descentralizada en aplicaciones de IA de alto riesgo, como la toma de decisiones financieras, la autenticación biométrica y la validación de inferencia en tiempo real.

SNARKs colaborativos (Cosnarks)

EZKL introdujo recientemente SNARKs colaborativos (cosnarks), lo que permite a dos partes, como un propietario de modelo y un propietario de datos, generar conjuntamente una prueba ZK sin que ninguna de las partes revele sus activos confidenciales. A diferencia de los sistemas de demostración de MPC delegados, los cosnarks eliminan suposiciones de confianza adicionales al limitar la computación solo a las partes involucradas.

Este avance permite casos de uso como la puntuación de crédito privada, estrategias de negociación confidenciales y verificación de identidad de conocimiento cero. La implementación aprovecha la biblioteca de MPC optimizada 2PC de Renegade e se integra directamente en Lilith, la capa de orquestación en la nube de EZKL.

Soporte del modelo y flexibilidad

EZKL admite una amplia gama de arquitecturas de IA/ML, incluyendo CNN, RNN, transformadores de estilo GPT, árboles de decisión y modelos de difusión estable. Cualquier modelo compatible con el estándar ONNX puede convertirse en un circuito ZK.

Al abstraer la lógica del modelo en circuitos matemáticos, EZKL permite inferencias preservando la privacidad en industrias como finanzas, salud e identidad. La lógica basada en árboles, mecanismos de atención y operaciones matriciales a gran escala son compatibles dentro del marco respaldado por Halo2.

Experiencia del desarrollador

EZKL prioriza la accesibilidad y la abstracción de la complejidad. Los desarrolladores no necesitan conocimientos criptográficos previos, experiencia en diseño de circuitos o habilidades avanzadas de DevOps. El sistema ofrece enlaces en CLI, Python, JavaScript y Rust, lo que facilita la incrustación de flujos de trabajo ZK en tuberías ML existentes.

Generación automática de restricciones, comandos de prueba simplificados e integración perfecta con herramientas de orquestación permiten a los desarrolladores centrarse únicamente en la lógica de la aplicación.

Protocolo ORA

ORA es un protocolo de oráculo agnóstico de cadena que conecta la inteligencia artificial y la cadena de bloques, permitiendo a los desarrolladores construir aplicaciones completamente descentralizadas y sin confianza impulsadas por el aprendizaje automático verificable. A través de su infraestructura, ORA aporta inferencia de inteligencia artificial, generación de contenido y cálculos complejos directamente en la cadena, eliminando la dependencia de APIs fuera de la cadena o cálculos centralizados. Su innovación principal radica en combinar la ejecución de inteligencia artificial con pruebas criptográficas, creando tuberías de inteligencia artificial programables con verificabilidad incrustada.

El protocolo permite a cualquier desarrollador construir aplicaciones donde las salidas de IA, ya sea una respuesta de modelo de lenguaje, una imagen generada o una declaración verificada, puedan integrarse en contratos inteligentes con garantías de auditabilidad y corrección.

Oráculo de IA Onchain (OAO)

El Oráculo de Inteligencia Artificial Onchain (OAO) es el producto estrella de ORA. Permite que los contratos inteligentes soliciten, reciban y actúen sobre los resultados de las inferencias de IA realizadas fuera de la cadena, pero verificadas y resueltas en la cadena. Los desarrolladores pueden llamar a un trabajo de inferencia de IA a través de la red opML de ORA. El resultado se devuelve a través de una función de devolución de llamada en el contrato del usuario, lo que hace que las aplicaciones en cadena sean nativas de IA y totalmente autónomas.

OAO admite múltiples modelos grandes, como LLaMA3, Stable Diffusion, OpenLM Chat/Score, que se ejecutan a través de una infraestructura verificable. Los desarrolladores pueden integrar OAO en cualquier cadena compatible con EVM, y los contratos inteligentes preconstruidos como Prompt y SimplePrompt permiten un prototipado rápido teniendo en cuenta la optimización de gas.

opML y Flujo de Verificación

El sistema optimista de aprendizaje automático (opML) de ORA alimenta su capa de verificabilidad. Cuando se inicia un trabajo de inferencia, el resultado se publica en la cadena con un período de desafío. Durante este tiempo, los validadores de opML pueden verificar el resultado y, si es incorrecto, presentar una prueba de fraude. El resultado correcto reemplaza al desafiado. Esto asegura que las salidas de IA incrustadas en contratos inteligentes sean verificables, resistentes a la censura y económicamente seguras.

Este enfoque optimista equilibra el rendimiento y la descentralización. A diferencia de zkML, que puede requerir una computación inicial pesada, opML hace que sea económicamente irracional que el comportamiento deshonesto tenga éxito, especialmente a medida que la red de validadores se expande.

Integración de desarrolladores

Los desarrolladores interactúan con OAO a través de una interfaz bien documentada y modular. Para integrar la IA en un contrato inteligente, un desarrollador hereda AIOracleCallbackReceiver e implementa la función aiOracleCallback() para recibir los resultados. Luego pueden llamar al oráculo para iniciar la inferencia utilizando los IDs del modelo, los datos de entrada y una dirección de callback.

Actualmente se están implementando cuatro modelos en Arbitrum, y la integración puede ser tan sencilla como el uso de las plantillas Prompt de ORA. La infraestructura también admite casos de uso más avanzados a través de su orquestación de cálculo con Lilith, lo que permite una inferencia más rápida y cargas de trabajo de alto rendimiento.

Oferta del Modelo Inicial (IMO)

ORA creó el marco de Oferta del Modelo Inicial (IMO) para descentralizar la propiedad, los ingresos y la gobernanza del modelo de IA. Los IMO tokenizan los modelos de IA a través de una estructura de doble token:

  • ERC-7007: Ancla salidas generadas por IA verificables (por ejemplo, imágenes, predicciones) directamente en cadena.
  • ERC-7641: Distribuye los ingresos del uso del modelo a los poseedores de tokens, creando sistemas de IA alineados con incentivos y gobernados por la comunidad.

Al habilitar la gobernanza y la monetización basada en tokens, los IMOs financian el desarrollo de código abierto mientras aseguran que la infraestructura de IA siga siendo resistente a la censura, globalmente accesible y colectivamente propiedad.

Conclusión

A medida que el sector vertical de la IA continúa creciendo, la necesidad de salidas de IA verificables se vuelve cada vez más crítica. Evidente a partir de lo anterior, existen enfoques diversos para garantizar la falta de confianza en las soluciones descentralizadas de IA, incluidos entornos de ejecución confiables (TEEs), Prueba de Muestreo (PoSP), Aprendizaje Automático de Conocimiento Cero (ZKML) y Aprendizaje Automático Optimista (OPML).

Los enfoques difieren en varios aspectos, a saber, el costo, el tiempo requerido y el nivel de garantías de seguridad. Es probable que todas las soluciones mencionadas anteriormente se utilicen de alguna manera, dependiendo de los casos de uso específicos.

Descargo de responsabilidad:

  1. Este artículo ha sido reimpreso de [Hiperbólico - e/acc]. Reenvía el título original 'IA y verificabilidad'. Todos los derechos de autor pertenecen al autor original [Hiperbólico - e/acc]. Si hay objeciones a esta reimpresión, por favor contacte al Gate Learnequipo y lo manejarán rápidamente.
  2. Descargo de responsabilidad: Las opiniones expresadas en este artículo son únicamente las del autor y no constituyen ningún consejo de inversión.
  3. El equipo de Gate Learn realiza traducciones del artículo a otros idiomas. Queda prohibido copiar, distribuir o plagiar los artículos traducidos a menos que se mencione.

Las 6 soluciones emergentes de verificación de IA en 2025

Intermedio4/17/2025, 2:03:08 AM
Este artículo explora soluciones de vanguardia en el campo de la verificabilidad de la IA en 2025, con un análisis profundo de seis proyectos principales: EigenLayer, Hyperbolic, Mira, Atoma, Fortytwo y Lagrange. Estas iniciativas adoptan diversos enfoques técnicos, incluyendo Prueba de Muestreo (PoSP), Entornos de Ejecución Confiables (TEEs) y Pruebas de Conocimiento Cero (ZKPs), para abordar el desafío de la confiabilidad de la salida de la IA. Cada solución ofrece ventajas únicas y se adapta a casos de uso específicos, avanzando colectivamente en el desarrollo de la infraestructura de IA descentralizada.

Reenviar el Título Original 'AI and Verifiability'

A medida que los sistemas de IA se integran cada vez más con los ecosistemas de blockchain, garantizar la verificabilidad de las salidas de IA se convierte en una piedra angular para fomentar la confianza, la transparencia y la responsabilidad. Esto es especialmente crítico para las aplicaciones de finanzas descentralizadas (DeFi) y de prueba de identidad, donde la precisión y la fiabilidad pueden influir directamente en los resultados financieros, las decisiones de gobernanza y la identidad del usuario.

El caso de la IA verificable en sistemas descentralizados

AI Observabilidad

Garantiza que los procesos de toma de decisiones sean transparentes y comprensibles. Los interesados obtienen información sobre cómo se derivan las conclusiones, es vital cuando las decisiones influyen en transacciones en cadena o gobernanza a gran escala.

Rastreabilidad de la fuente

Rastrea los datos, parámetros y arquitecturas de modelos utilizados para generar predicciones de IA. Al establecer la procedencia, los usuarios saben de dónde provienen los datos de entrenamiento y qué modelos se emplearon, lo que mejora la confianza y reduce la probabilidad de desinformación.

Verificación de salida

Confirma que las salidas finales de IA son precisas y no han sido alteradas. En un contexto descentralizado, esto a menudo implica mecanismos de prueba (por ejemplo, pruebas de conocimiento cero, consenso de muestreo) para asegurar que los cálculos o inferencias no han sido manipulados fuera de la cadena.

Desafíos en la Verificabilidad de la IA en la Cadena

Si bien las blockchains son excelentes para proporcionar registros inmutables y confianza distribuida, los cálculos de IA en cadena pueden resultar prohibitivamente caros. Por ejemplo, la multiplicación de matrices para 1000×1000 enteros puede consumir miles de millones de gas, más allá del límite de gas por bloque actual de Ethereum (Zheng et al., 2021). En consecuencia, la mayoría de los proyectos de IA dependen de la computación fuera de la cadena con verificación en cadena.

Sin embargo, los enfoques fuera de la cadena introducen nuevos desafíos:

Posible fraude: Sin una verificación sólida, los actores malintencionados pueden enviar datos incorrectos o manipulados.

Puntos Débiles Centralizados: Depender de oráculos fuera de la cadena o servidores privados puede socavar el ethos descentralizado, lo que lleva a la censura o puntos únicos de fallo.

Por lo tanto, las soluciones emergentes apuntan a mantener un alto rendimiento mientras incorporan verificación criptográfica o basada en muestreo, equilibrando eficiencia y descentralización.

EigenLayer

EigenLayer es un protocolo de restaking que permite a los validadores de Ethereum "restakear" su ETH para asegurar servicios descentralizados adicionales, conocidos como Servicios de Validación Activa (AVS). En lugar de necesitar un nuevo conjunto de validadores para cada tarea especializada (por ejemplo, validación de IA, operaciones entre cadenas), EigenLayer reutiliza la sólida y descentralizada red de validadores de Ethereum.

EigenLayer mejora la seguridad al permitir que los nuevos Servicios Validados Activamente (AVS) se conecten al conjunto de validadores existente de Ethereum. Este conjunto de validadores ya es grande, está bien capitalizado y distribuido geográficamente, lo que ofrece garantías criptoeconómicas sólidas sin necesidad de arrancar una nueva red desde cero.

Al habilitar el restaking, EigenLayer reduce significativamente los costos operativos. Los proyectos ya no necesitan crear y mantener sus propios ecosistemas de validadores, lo que reduce tanto los costos de infraestructura como las barreras para lanzar nuevos servicios descentralizados en la cadena.

Además, el sistema ofrece una gran flexibilidad. AVS puede personalizar su propio consenso y lógica de validación mientras hereda la seguridad de la capa base de Ethereum, lo que hace que EigenLayer sea una base ideal para aplicaciones descentralizadas modulares, seguras y escalables.

Prueba de Muestreo Hiperbólico (PoSP) de Gate

Hyperbolic Labs presenta Proof of Sampling (PoSP), una alternativa eficiente y escalable a las tradicionales pruebas zkML o pruebas de fraude optimistas para la validación de la inteligencia artificial. Este novedoso protocolo de verificación basado en muestreo garantiza que nuestros usuarios puedan confiar en los resultados de sus modelos que se están entrenando y ejecutando en nuestra red descentralizada de GPU. Este protocolo, conocido como Proof of Sampling (PoSP), es el nuevo estándar de oro para la verificación en inteligencia artificial.

Desarrollado por el equipo de Gate Hiperbólica en colaboración con investigadores de la Universidad de California en Berkeley y la Universidad de Columbia, PoSP utiliza la teoría de juegos para asegurar sistemas descentralizados. Valida una muestra estratégica de resultados e implementa un proceso de arbitraje para nodos deshonestos con el fin de incentivar un comportamiento 100% honesto en toda la red.

La Prueba de Pruebas Espontáneas (PoSP) ofrece varias ventajas clave: permite una verificación eficiente al agregar menos del 1% de sobrecarga computacional, lo que permite a los nodos mantener velocidades de funcionamiento casi nativas. Su seguridad robusta garantiza que los participantes sigan siendo honestos, ya que las verificaciones aleatorias hacen que el fraude sea demasiado arriesgado para que valga la pena. A través de incentivos teóricos del juego, PoSP crea un Equilibrio de Nash de estrategia pura donde el comportamiento honesto siempre es la elección racional. Finalmente, PoSP es altamente escalable para servicios de IA, capaz de soportar cargas de trabajo de IA descentralizadas a gran escala, al tiempo que garantiza que los procesos de cálculo e inferencia de alto rendimiento sigan siendo verificables y confiables.

Auditorías Aleatorias: Un conjunto rotativo de validadores (a través de EigenLayer) muestrean y verifican regularmente cálculos de IA. Esta verificación continua evita el fraude sistemático.

Incentivos de Equilibrio de Nash: El comportamiento malicioso es económicamente irracional para los validadores, las salidas deshonestas o inconsistentes llevan a penalizaciones que se pueden reducir.

Alta capacidad de procesamiento: la menor sobrecarga de rendimiento de PoSP lo hace adecuado para casos de uso que requieren inferencias de IA rápidas y frecuentes.

A diferencia de otras soluciones de IA descentralizadas, cuando ejecutas una inferencia en la red descentralizada de Hyperbolic, puedes tener la confianza de que estás recibiendo un resultado válido.

Al integrar PoSP en EigenLayer, los servicios de IA descentralizados pueden lograr un marco seguro y minimizado en confianza que puede manejar un número creciente de solicitudes de inferencia sin sacrificar la descentralización o la eficiencia de costos.

Validación Aleatoria: Los validadores son seleccionados al azar para verificar las salidas, asegurando resultados imparciales.

Soporte AVS escalable: PoSP reduce las demandas computacionales, lo que permite a EigenLayer asegurar servicios a gran escala de manera eficiente.

Disuasión del fraude: Las estrictas sanciones hacen que la deshonestidad no sea rentable, mientras que el comportamiento honesto sigue siendo la estrategia óptima.

“El protocolo EigenLayer combinado con nuestro protocolo de Prueba de Muestreo transforma fundamentalmente la forma en que aseguramos servicios descentralizados. Ahora ofrecemos una infraestructura escalable, confiable y resistente al fraude a una fracción del costo.” - Jasper Zhang, CEO de Hyperbolic


Lea el documento completo sobre PoSP aquí

Look

Mira Network tiene como objetivo abordar un desafío fundamental en la IA, que es la tendencia de los modelos de lenguaje grandes (LLMs) a generar información incorrecta. Diseñado para reducir alucinaciones y maximizar la precisión de la salida sin supervisión humana, Mira aprovecha una red descentralizada de nodos independientes para verificar de manera confiable las salidas de IA en paralelo.

Hay tres pasos en la arquitectura de Mira

Binarización

El proceso de desglosar las salidas en 'reclamaciones' más simples.

Verificación Distribuida

Las afirmaciones anteriores son verificadas por una red de nodos verificadores que ejecutan modelos especializados para verificar las afirmaciones. La verificación se realiza en un formato de pregunta de opción múltiple. Las afirmaciones para la verificación se dividen aleatoriamente entre los verificadores, lo que dificulta la colusión.

Prueba de Verificación

Un mecanismo de consenso híbrido que combina Prueba de Trabajo (PoW) y Prueba de Participación (PoS) es utilizado. Cada verificador necesita apostar para participar en la verificación. Este enfoque garantiza que los verificadores realmente estén realizando inferencia, en lugar de simplemente atestiguar. La apuesta de un verificador será reducida si se encuentra que su resultado se desvía constantemente del consenso.

Una vez que la red alcanza un consenso sobre una salida, se genera un certificado criptográfico que se escribe en la cadena de bloques, creando un registro inmutable de hechos verificados.


Fuente:Whitepaper de Mira Network

La privacidad es un aspecto clave del diseño de Mira. Dado que las reclamaciones están fragmentadas aleatoriamente, no es posible que un único operador de nodo reconstruya la salida original. Además, las respuestas de verificación de verificadores independientes se mantienen privadas antes del consenso, evitando fugas de información.

Mira está buscando verificar contenido cada vez más complejo, que incluye código, datos estructurados y contenido multimedia. En el futuro, Mira también reconstruirá contenido inválido cuando se detecte contenido inválido, logrando tanto precisión como velocidad en la salida de IA. Eventualmente, la Red de Mira podrá acumular hechos económicamente seguros, creando una base de datos para la verificación de hechos.

A medida que crece el uso de la red: mayor generación de tarifas, mejores premios de verificación, atrayendo a más operadores de nodos, mejorando la precisión, costos y latencia en la verificación de respuestas

Atoma

Atoma es una red de ejecución de IA descentralizada, privada y verificable, en vivo en la red principal de Sui. La arquitectura principal consta de tres elementos: (a) capa de cálculo y; (b) capa de verificación y; (c) capa de privacidad.

Capa de Cómputo

Una red global de nodos de ejecución que procesa solicitudes de inferencia. Un gran número de nodos están disponibles al trabajar con varios centros de datos y dispositivos perimetrales como los dispositivos digitales de los individuos.

Con Atoma, los pesos del modelo están disponibles localmente en los nodos, aumentando la velocidad de inferencia cuando se ha recibido una solicitud. Además, las solicitudes recibidas se dirigen al nodo más adecuado, coincidiendo la tarea con el rendimiento y el costo correspondientes.

Atoma se enfoca en optimizar la eficiencia de ejecutar inferencias a través de un par de características, incluyendo FlashAttention y Paged Attention, ambos contribuyendo a reducir la carga computacional.

Capa de verificación

La integridad del cálculo se verifica a través del consenso de muestreo. Este es un proceso en el que se seleccionan nodos al azar para ejecutar la inferencia y generar un hash criptográfico de la salida. Si todos los hashes generados por el conjunto seleccionado de nodos coinciden, la salida de la inferencia se verifica. En caso de que haya una discrepancia entre los hashes generados, la red buscará al nodo deshonesto, que será penalizado con la reducción de su participación.

Las posibilidades de que un atacante malicioso pueda controlar la mitad o más de la potencia de GPU de toda la red para manipular el sistema son muy bajas, y se vuelven aún más difíciles a medida que la red de nodos escala. El número de nodos seleccionados para muestreo es flexible, para tareas con apuestas más altas, se puede elegir un conjunto más grande de nodos.

Capa de privacidad

Atoma pone énfasis en mantener seguros y privados los datos del usuario, ejecutando cálculos en un Entorno de Ejecución Confiable (TEE). Los datos ingresados por los usuarios están encriptados y solo se descifran en el TEE. Esto evita que otras partes en la cadena de bloques puedan ver los datos del usuario. Una vez que se ha realizado la inferencia, la salida se encripta antes de devolverla a los usuarios.

A pesar de que lo anterior sea una solución segura, cabe destacar que conlleva un compromiso en cuanto a la sobrecarga computacional mayor, lo que podría resultar en tarifas más altas para los usuarios.

Aizel Network

Similar a Atoma Network anterior, Aizel Network opta por un enfoque basado en TEE. La diferencia aquí es que Aizel ha integrado la Computación Multi-Parte (MPC) en su flujo de trabajo, donde las tareas de inferencia se dirigen a diferentes TEE. Esto tiene como objetivo descentralizar la red, asegurando que la inferencia siga siendo posible incluso cuando un TEE sea hackeado o esté inactivo.

Cuarenta y dos

Fortytwo defiende un modelo de “inferencia en enjambre” construido en torno a Modelos Pequeños y Especializados (SLMs). En lugar de depender de una única IA masiva y monolítica, la red orquesta múltiples modelos dirigidos por contribuyentes, cada uno ajustado para tareas o dominios específicos. Estos modelos trabajan en paralelo—verificando, refinando y cruzando las salidas de los demás—para ofrecer inferencias más precisas y confiables.

Esta estructura descentralizada aborda problemas que a menudo enfrentan los modelos únicos y grandes, como cuellos de botella en el entrenamiento, requisitos costosos de hardware y puntos únicos de falla. Al distribuir la inteligencia en numerosos modelos y contribuyentes más pequeños, Fortytwo garantiza tanto la escalabilidad como la tolerancia a fallas.

1. Modelos Especializados Pequeños (SLMs)

Inicialización centrada en la intención

Antes de que comience cualquier tarea, los colaboradores especifican el objetivo, el presupuesto y las restricciones. Este enfoque alinea cada SLM con la misión general, ya sea resumir texto, analizar código u cualquier otra inferencia especializada.

Especializaciones Definidas por el Contribuidor

Los operadores de nodos individuales traen sus propios modelos ajustados a la red. Conservan el control total sobre los pesos, sesgos y datos propietarios, asegurando la privacidad para cada propietario de modelo. Estos modelos especializados pueden centrarse en áreas como análisis de sentimientos, análisis de texto legal o incluso generación de código específico de dominio.

Privacidad de Pesos & Biases

Un aspecto crítico de Fortytwo es que los contribuyentes no tienen que compartir los detalles internos del modelo en bruto. Solo se comparten los resultados de la inferencia con la red. Este diseño preserva la propiedad intelectual de cada propietario del modelo y ayuda a mitigar los riesgos asociados con la exposición de datos sensibles.

2. Inferencia de Enjambre y Evaluación de Pares

Colaboración Multi-SLM

Las tareas se dividen entre 7-8 (o más) SLM especializados, cada uno proporcionando una perspectiva de dominio única. Al dividir tareas más grandes en subproblemas más pequeños, la red aprovecha de manera más efectiva las fortalezas de cada modelo.

Flat Mixture-of-Experts (MoE)

En lugar de apilar subexpertos en múltiples capas, Fortytwo utiliza un enfoque MoE "plano", donde cada modelo procesa los datos de forma independiente. Este diseño puede ser particularmente eficiente porque evita la complejidad de la compuerta jerárquica, permitiendo que los expertos se centren únicamente en sus respectivas sub tareas.

Detección de Errores Colectiva

La evaluación entre pares juega un papel fundamental en mantener la precisión de la inferencia. Cuando los modelos no están de acuerdo, la red señala las discrepancias para un análisis más profundo. Este proceso de verificación cruzada es crucial para detectar errores tempranamente y garantizar una producción de alta calidad.

3. Baja latencia & Computación distribuida

Hardware de grado de consumidor

Fortytwo está optimizado para dispositivos como Apple Silicon y GPU RTX, lo que reduce las barreras de costos y amplía la base de posibles operadores de nodos. Este enfoque democratiza la IA al permitir que más individuos, y no solo grandes centros de datos, participen.

Clusters de implementación

Muchos operadores de nodos eligen plataformas en la nube (por ejemplo, AWS) o clústeres alojados en sus propios servidores para minimizar la latencia. Los clústeres bien coordinados se vuelven especialmente valiosos en escenarios sensibles al tiempo donde incluso pequeños retrasos pueden impactar significativamente la experiencia del usuario.

4. Comunidad de Operadores de Nodos

Participación en crecimiento

Miles de participantes han expresado interés en ejecutar nodos de inferencia, creando una red diversa y distribuida. Esta expansión aporta más recursos computacionales en línea, aumentando aún más la capacidad de procesamiento y la resiliencia.

Contribuciones al Modelo Similar a Wikipedia

Similar to how Wikipedia editors collaborate on articles, each node operator can enhance or fine-tune specialized models and share improved inference techniques. This collective maintenance and refinement fosters continuous innovation and elevates the overall intelligence of the network.

Lagrange

Lagrange está a la vanguardia en el uso de la tecnología de conocimiento cero (ZK) para brindar verificabilidad a la inteligencia artificial. Su lema, "El futuro de la IA es ZK, y el futuro de la humanidad es Gate", subraya la creencia de que, a medida que la IA evoluciona hacia la superinteligencia, debemos garantizar transparencia y confianza en cómo funcionan estos modelos.

DeepProve: Alto rendimiento zkML

  • Prueba de modelo correcto: DeepProve confirma criptográficamente que se utilizó el modelo de IA correcto para una inferencia dada, sin dejar margen para manipulación o tergiversación.
  • Prueba de Salida Correcta: También garantiza que la salida se alinee con lo que el modelo produciría genuinamente, evitando que actores malintencionados inyecten resultados falsos.
  • Mejoras de rendimiento: Presume de una generación de prueba 158 veces más rápida y una verificación 671 veces más rápida que muchas soluciones zkML existentes, lo que hace factible la implementación a gran escala.

Al eliminar las interacciones de IA de “caja negra”, Lagrange garantiza que los usuarios no tengan que confiar ciegamente en la IA. En entornos descentralizados donde la minimización de la confianza es fundamental, la certeza criptográfica sobre la integridad del modelo y la corrección de la salida se vuelve esencial.

Además, Inference Labs opera como el brazo enfocado en aplicaciones de Lagrange, que conecta la investigación y las implementaciones prácticas. Mientras Lagrange se concentra en el diseño criptográfico y de circuitos básicos, Inference Labs se asegura de que estos avances estén listos para la producción.

Integraciones del mundo real

Incrusta zkML en las canalizaciones existentes de aprendizaje automático, centrándose en sectores como DeFi, juegos, salud y procedencia de la cadena de suministro.

Colabora con líderes de la industria para probar a fondo las nuevas características de Lagrange bajo restricciones del mundo real (por ejemplo, grandes recuentos de parámetros, estrictos requisitos de latencia).

EZKL

EZKL es un sistema de código abierto para crear IA y análisis verificables utilizando pruebas de conocimiento cero (ZKPs). Permite a los desarrolladores demostrar que los modelos de IA se ejecutaron correctamente sin revelar datos sensibles o detalles del modelo patentado. Inspirado en sistemas como el Face ID de Apple, EZKL extiende la seguridad del modelo incuestionable a cualquier modelo en cualquier dispositivo, sin depender de hardware especializado como TEEs.

Infraestructura de Prueba de Conocimiento Cero

EZKL automatiza todo el ciclo de vida de ZKP, desde la compilación del modelo hasta la generación y verificación de la prueba. Los usuarios proporcionan modelos de IA en formato ONNX, que EZKL compila en circuitos amigables con ZK utilizando una versión optimizada del sistema de demostración Halo2. El sistema luego genera pruebas criptográficas de la ejecución correcta del modelo que se pueden verificar en cualquier dispositivo.

Este proceso criptográfico permite confianza descentralizada en aplicaciones de IA de alto riesgo, como la toma de decisiones financieras, la autenticación biométrica y la validación de inferencia en tiempo real.

SNARKs colaborativos (Cosnarks)

EZKL introdujo recientemente SNARKs colaborativos (cosnarks), lo que permite a dos partes, como un propietario de modelo y un propietario de datos, generar conjuntamente una prueba ZK sin que ninguna de las partes revele sus activos confidenciales. A diferencia de los sistemas de demostración de MPC delegados, los cosnarks eliminan suposiciones de confianza adicionales al limitar la computación solo a las partes involucradas.

Este avance permite casos de uso como la puntuación de crédito privada, estrategias de negociación confidenciales y verificación de identidad de conocimiento cero. La implementación aprovecha la biblioteca de MPC optimizada 2PC de Renegade e se integra directamente en Lilith, la capa de orquestación en la nube de EZKL.

Soporte del modelo y flexibilidad

EZKL admite una amplia gama de arquitecturas de IA/ML, incluyendo CNN, RNN, transformadores de estilo GPT, árboles de decisión y modelos de difusión estable. Cualquier modelo compatible con el estándar ONNX puede convertirse en un circuito ZK.

Al abstraer la lógica del modelo en circuitos matemáticos, EZKL permite inferencias preservando la privacidad en industrias como finanzas, salud e identidad. La lógica basada en árboles, mecanismos de atención y operaciones matriciales a gran escala son compatibles dentro del marco respaldado por Halo2.

Experiencia del desarrollador

EZKL prioriza la accesibilidad y la abstracción de la complejidad. Los desarrolladores no necesitan conocimientos criptográficos previos, experiencia en diseño de circuitos o habilidades avanzadas de DevOps. El sistema ofrece enlaces en CLI, Python, JavaScript y Rust, lo que facilita la incrustación de flujos de trabajo ZK en tuberías ML existentes.

Generación automática de restricciones, comandos de prueba simplificados e integración perfecta con herramientas de orquestación permiten a los desarrolladores centrarse únicamente en la lógica de la aplicación.

Protocolo ORA

ORA es un protocolo de oráculo agnóstico de cadena que conecta la inteligencia artificial y la cadena de bloques, permitiendo a los desarrolladores construir aplicaciones completamente descentralizadas y sin confianza impulsadas por el aprendizaje automático verificable. A través de su infraestructura, ORA aporta inferencia de inteligencia artificial, generación de contenido y cálculos complejos directamente en la cadena, eliminando la dependencia de APIs fuera de la cadena o cálculos centralizados. Su innovación principal radica en combinar la ejecución de inteligencia artificial con pruebas criptográficas, creando tuberías de inteligencia artificial programables con verificabilidad incrustada.

El protocolo permite a cualquier desarrollador construir aplicaciones donde las salidas de IA, ya sea una respuesta de modelo de lenguaje, una imagen generada o una declaración verificada, puedan integrarse en contratos inteligentes con garantías de auditabilidad y corrección.

Oráculo de IA Onchain (OAO)

El Oráculo de Inteligencia Artificial Onchain (OAO) es el producto estrella de ORA. Permite que los contratos inteligentes soliciten, reciban y actúen sobre los resultados de las inferencias de IA realizadas fuera de la cadena, pero verificadas y resueltas en la cadena. Los desarrolladores pueden llamar a un trabajo de inferencia de IA a través de la red opML de ORA. El resultado se devuelve a través de una función de devolución de llamada en el contrato del usuario, lo que hace que las aplicaciones en cadena sean nativas de IA y totalmente autónomas.

OAO admite múltiples modelos grandes, como LLaMA3, Stable Diffusion, OpenLM Chat/Score, que se ejecutan a través de una infraestructura verificable. Los desarrolladores pueden integrar OAO en cualquier cadena compatible con EVM, y los contratos inteligentes preconstruidos como Prompt y SimplePrompt permiten un prototipado rápido teniendo en cuenta la optimización de gas.

opML y Flujo de Verificación

El sistema optimista de aprendizaje automático (opML) de ORA alimenta su capa de verificabilidad. Cuando se inicia un trabajo de inferencia, el resultado se publica en la cadena con un período de desafío. Durante este tiempo, los validadores de opML pueden verificar el resultado y, si es incorrecto, presentar una prueba de fraude. El resultado correcto reemplaza al desafiado. Esto asegura que las salidas de IA incrustadas en contratos inteligentes sean verificables, resistentes a la censura y económicamente seguras.

Este enfoque optimista equilibra el rendimiento y la descentralización. A diferencia de zkML, que puede requerir una computación inicial pesada, opML hace que sea económicamente irracional que el comportamiento deshonesto tenga éxito, especialmente a medida que la red de validadores se expande.

Integración de desarrolladores

Los desarrolladores interactúan con OAO a través de una interfaz bien documentada y modular. Para integrar la IA en un contrato inteligente, un desarrollador hereda AIOracleCallbackReceiver e implementa la función aiOracleCallback() para recibir los resultados. Luego pueden llamar al oráculo para iniciar la inferencia utilizando los IDs del modelo, los datos de entrada y una dirección de callback.

Actualmente se están implementando cuatro modelos en Arbitrum, y la integración puede ser tan sencilla como el uso de las plantillas Prompt de ORA. La infraestructura también admite casos de uso más avanzados a través de su orquestación de cálculo con Lilith, lo que permite una inferencia más rápida y cargas de trabajo de alto rendimiento.

Oferta del Modelo Inicial (IMO)

ORA creó el marco de Oferta del Modelo Inicial (IMO) para descentralizar la propiedad, los ingresos y la gobernanza del modelo de IA. Los IMO tokenizan los modelos de IA a través de una estructura de doble token:

  • ERC-7007: Ancla salidas generadas por IA verificables (por ejemplo, imágenes, predicciones) directamente en cadena.
  • ERC-7641: Distribuye los ingresos del uso del modelo a los poseedores de tokens, creando sistemas de IA alineados con incentivos y gobernados por la comunidad.

Al habilitar la gobernanza y la monetización basada en tokens, los IMOs financian el desarrollo de código abierto mientras aseguran que la infraestructura de IA siga siendo resistente a la censura, globalmente accesible y colectivamente propiedad.

Conclusión

A medida que el sector vertical de la IA continúa creciendo, la necesidad de salidas de IA verificables se vuelve cada vez más crítica. Evidente a partir de lo anterior, existen enfoques diversos para garantizar la falta de confianza en las soluciones descentralizadas de IA, incluidos entornos de ejecución confiables (TEEs), Prueba de Muestreo (PoSP), Aprendizaje Automático de Conocimiento Cero (ZKML) y Aprendizaje Automático Optimista (OPML).

Los enfoques difieren en varios aspectos, a saber, el costo, el tiempo requerido y el nivel de garantías de seguridad. Es probable que todas las soluciones mencionadas anteriormente se utilicen de alguna manera, dependiendo de los casos de uso específicos.

Descargo de responsabilidad:

  1. Este artículo ha sido reimpreso de [Hiperbólico - e/acc]. Reenvía el título original 'IA y verificabilidad'. Todos los derechos de autor pertenecen al autor original [Hiperbólico - e/acc]. Si hay objeciones a esta reimpresión, por favor contacte al Gate Learnequipo y lo manejarán rápidamente.
  2. Descargo de responsabilidad: Las opiniones expresadas en este artículo son únicamente las del autor y no constituyen ningún consejo de inversión.
  3. El equipo de Gate Learn realiza traducciones del artículo a otros idiomas. Queda prohibido copiar, distribuir o plagiar los artículos traducidos a menos que se mencione.
เริ่มตอนนี้
สมัครและรับรางวัล
$100