La aparición de blockchains públicos marca un avance profundo en la historia de la ciencia de la computación, mientras que el desarrollo de la inteligencia artificial está teniendo un impacto significativo en nuestro mundo. La tecnología blockchain ofrece nuevos modelos para el arreglo de transacciones, almacenamiento de datos y diseño de sistemas, mientras que la inteligencia artificial representa una revolución en la computación, el análisis y la entrega de contenido. Las innovaciones en estas industrias están desencadenando nuevos casos de uso que podrían acelerar la adopción de ambos sectores en los próximos años. Este informe examina la integración continua de criptomonedas e inteligencia artificial, centrándose en casos de uso novedosos que buscan cerrar la brecha entre ambos y aprovechar sus fortalezas. Se analizan específicamente proyectos que desarrollan protocolos de computación descentralizada, infraestructura de aprendizaje automático de conocimiento cero (zkML) y agentes de inteligencia artificial.
Las criptomonedas ofrecen una capa de liquidación permisionada, sin confianza y componible para la inteligencia artificial, desbloqueando casos de uso como un acceso más fácil al hardware a través de sistemas informáticos descentralizados, la creación de agentes de inteligencia artificial capaces de ejecutar tareas complejas que requieren intercambio de valor, y el desarrollo de soluciones de identidad y procedencia para contrarrestar ataques de Sybil y deepfakes. La IA aporta a las criptomonedas muchos de los mismos beneficios vistos en la Web 2.0, incluidas experiencias mejoradas para usuarios y desarrolladores a través de modelos de lenguaje amplios como ChatGPT y Copilot, y un potencial de funcionalidad y automatización significativamente mejorado para contratos inteligentes. La cadena de bloques proporciona el entorno transparente y rico en datos necesario para la IA, aunque la limitada potencia informática de la cadena de bloques es una barrera importante para la integración directa de modelos de IA.
Los experimentos y la adopción eventual en la intersección de la criptomoneda y la IA son impulsados por las mismas fuerzas que impulsan los casos de uso más prometedores para la criptomoneda: acceso a una capa de coordinación sin permisos y sin confianza, facilitando una mejor transferencia de valor. Dado el vasto potencial, los interesados en este campo necesitan comprender las formas fundamentales en que estas tecnologías se intersectan.
La inteligencia artificial es el uso de la computación y las máquinas para imitar las capacidades de razonamiento y resolución de problemas de los humanos.
Las redes neuronales son un método para entrenar modelos de inteligencia artificial. Ejecutan entradas a través de capas algorítmicas discretas, refinándolas hasta que se produzca la salida deseada. Las redes neuronales consisten en ecuaciones con pesos que pueden ajustarse para cambiar la salida. Pueden requerir datos extensos y cálculos para el entrenamiento para garantizar salidas precisas. Esta es una de las formas más comunes de desarrollar modelos de IA (por ejemplo, ChatGPT se basa en un proceso de red neuronal basado en Transformadores).
El entrenamiento es el proceso de desarrollo de redes neuronales y otros modelos de IA. Requiere una cantidad significativa de datos para entrenar a los modelos para que interpreten correctamente las entradas y produzcan resultados precisos. Durante el entrenamiento, las ponderaciones de las ecuaciones del modelo se modifican continuamente hasta que se produce un resultado satisfactorio. La capacitación puede ser muy costosa. Por ejemplo, ChatGPT utiliza decenas de miles de sus propias GPU para procesar datos. Los equipos con menos recursos a menudo dependen de proveedores informáticos especializados, como los proveedores de Amazon Web Services, Azure y Google Cloud.
La inferencia es el uso real de modelos de IA para obtener salidas o resultados (por ejemplo, utilizando ChatGPT para crear un esquema para un documento sobre la intersección de criptomonedas e IA). La inferencia se utiliza durante todo el proceso de entrenamiento y en el producto final. Debido a los costos computacionales, incluso después de que el entrenamiento esté completo, sus costos operativos pueden ser altos, aunque su intensidad computacional es menor que la del entrenamiento.
Las pruebas de conocimiento cero (ZKP) permiten la verificación de declaraciones sin revelar información subyacente. Esto es útil en criptomonedas por dos razones principales: 1) Privacidad y 2) Escalabilidad. En cuanto a la privacidad, permite a los usuarios realizar transacciones sin revelar información sensible (por ejemplo, cuánto ETH hay en una billetera). En cuanto a la escalabilidad, permite probar las computaciones fuera de la cadena más rápidamente que reejecutar las computaciones. Esto permite que las cadenas de bloques y las aplicaciones ejecuten computaciones de forma económica fuera de la cadena y luego las verifiquen en la cadena. Para obtener más información sobre el conocimiento cero y su papel en las Máquinas Virtuales Ethereum, consulte el informe de Christine Kim sobre zkEVMs: El Futuro de la Escalabilidad de Ethereum.
Los proyectos que integran inteligencia artificial y criptomonedas todavía están construyendo la infraestructura subyacente necesaria para respaldar interacciones de inteligencia artificial a gran escala en la cadena.
Los mercados de computación descentralizada están surgiendo para proporcionar el vasto hardware físico necesario para entrenar e inferir modelos de IA, principalmente en forma de Unidades de Procesamiento Gráfico (GPUs). Estos mercados de dos lados conectan a aquellos que alquilan y buscan alquilar computación, facilitando la transferencia de valor y la verificación de cálculos. Dentro de la computación descentralizada, están surgiendo varias subcategorías que ofrecen funcionalidades adicionales. Además de los mercados bilaterales, este informe también revisa los proveedores de entrenamiento de aprendizaje automático que ofrecen entrenamiento verificable y ajuste fino de salidas, así como proyectos dedicados a vincular la computación y la generación de modelos para habilitar la IA, a menudo referidos como redes de incentivos inteligentes.
zkML es un área de enfoque emergente para proyectos que tienen como objetivo proporcionar resultados de modelos verificables en la cadena de una manera económicamente viable y oportuna. Estos proyectos permiten principalmente que las aplicaciones manejen solicitudes computacionales pesadas fuera de la cadena y luego publiquen resultados verificables en la cadena, lo que demuestra que la carga de trabajo fuera de la cadena fue completa y precisa. En la actualidad, zkML es caro y requiere mucho tiempo, pero se utiliza cada vez más como solución. Esto es evidente en el creciente número de integraciones entre los proveedores de zkML y las aplicaciones DeFi/gaming que desean aprovechar los modelos de IA.
La amplia oferta de cálculo y la capacidad de verificar el cálculo en cadena abren la puerta a agentes de IA en cadena. Los agentes son modelos entrenados capaces de ejecutar solicitudes en nombre de los usuarios. Los agentes ofrecen la oportunidad de mejorar significativamente la experiencia en cadena, permitiendo a los usuarios ejecutar transacciones complejas simplemente conversando con un chatbot. Sin embargo, hasta el momento, los proyectos de agentes siguen centrados en desarrollar la infraestructura y herramientas para una implementación fácil y rápida.
La inteligencia artificial requiere una extensa computación para entrenar modelos y ejecutar inferencias. Durante la última década, a medida que los modelos se han vuelto cada vez más complejos, la demanda de computación ha crecido exponencialmente. Por ejemplo, OpenAI observó que desde 2012 hasta 2018, la demanda computacional de sus modelos se duplicó cada dos años, pasando a duplicarse cada tres meses y medio. Esto llevó a un aumento en la demanda de GPUs, con algunos mineros de criptomonedas incluso reutilizando sus GPUs para ofrecer servicios de computación en la nube. A medida que la competencia por el acceso computacional se intensifica y los costos aumentan, algunos proyectos están aprovechando la tecnología criptográfica para ofrecer soluciones de computación descentralizada. Ofrecen computación bajo demanda a precios competitivos, permitiendo a los equipos entrenar y ejecutar modelos de manera asequible. En algunos casos, los compromisos pueden implicar rendimiento y seguridad.
La demanda de GPUs de última generación (por ejemplo, los producidos por Nvidia) es significativa. En septiembre, Tether adquirió una participación en el minero de bitcoins alemán Northern Data, reportando un gasto de $420 millones para comprar 10,000 GPUs H100 (uno de los GPUs más avanzados para entrenamiento de IA). El tiempo de espera para adquirir hardware de primera categoría puede ser de al menos seis meses, si no más en muchos casos. Peor aún, a menudo se requiere que las empresas firmen contratos a largo plazo para asegurar volúmenes computacionales que ni siquiera podrían llegar a utilizar. Esto puede llevar a situaciones en las que los recursos computacionales estén disponibles pero no sean accesibles en el mercado. Los sistemas informáticos descentralizados ayudan a abordar estas ineficiencias del mercado al crear un mercado secundario donde los propietarios de computación pueden subarrendar inmediatamente su capacidad excesiva tras recibir una notificación, liberando así nueva oferta.
Además de precios competitivos y accesibilidad, una propuesta de valor clave de la computación descentralizada es la resistencia a la censura. El desarrollo de IA de vanguardia está siendo cada vez más dominado por grandes empresas tecnológicas con capacidades de acceso a datos y computacionales incomparables. El primer tema clave destacado en el Informe Anual del Índice de IA 2023 fue el creciente sobrepaso de la academia por parte de la industria en el desarrollo de modelos de IA, concentrando el control en manos de unos pocos líderes tecnológicos. Esto plantea preocupaciones sobre su potencial para ejercer una influencia significativa en el establecimiento de normas y valores que sustentan los modelos de IA, especialmente después de que estas empresas tecnológicas presionen para que se regulen para limitar el desarrollo de IA incontrolable.
Varios modelos de computación descentralizada han surgido en los últimos años, cada uno con su propio enfoque y compensaciones.
A grandes rasgos, proyectos como Akash, io.net, iExec y Cudos son aplicaciones de la computación descentralizada, que ofrecen más allá de los datos y las soluciones computacionales generales, acceso a la computación especializada para el entrenamiento y la inferencia de la IA. Akash se destaca como la única plataforma de "súper nube" de código abierto, que utiliza el SDK de Cosmos para su red de prueba de participación. AKT, el token nativo de Akash, sirve como método de pago para asegurar la red e incentivar la participación. Lanzada en 2020, la red principal de Akash se centró inicialmente en un mercado de computación en la nube sin permisos, con servicios de almacenamiento y arrendamiento de CPU. En junio de 2023, Akash presentó una red de prueba centrada en la GPU, seguida del lanzamiento de una red principal de GPU en septiembre, lo que permitió el entrenamiento de IA y el alquiler de GPU de inferencia.
El ecosistema de Akash consta de dos participantes principales: los inquilinos, que buscan recursos informáticos, y los proveedores, los proveedores informáticos. Un proceso de subasta inversa facilita la coincidencia de inquilinos y proveedores, donde los inquilinos publican sus requisitos de proceso, incluidas las ubicaciones de servidor o los tipos de hardware preferidos y su presupuesto. A continuación, los proveedores pujan, y el postor más bajo se adjudica la tarea. Los validadores mantienen la integridad de la red, con un límite actual de 100 validadores, que se prevé que aumente con el tiempo. La participación como validador está abierta a aquellos que apuesten más AKT que el validador actual menos apostado. Los titulares de AKT pueden delegar sus tokens a validadores, con tarifas de transacción y recompensas por bloque distribuidas en AKT. Además, por cada arrendamiento, la red Akash gana una "tasa de aceptación", decidida por la comunidad, que se distribuye a los titulares de AKT.
El mercado secundario de computación descentralizada tiene como objetivo abordar las ineficiencias en el mercado computacional existente, donde las limitaciones de suministro llevan a las empresas a acaparar recursos más allá de sus necesidades y los contratos a largo plazo con proveedores de servicios en la nube limitan aún más el suministro. Las plataformas de computación descentralizada desbloquean un nuevo suministro, permitiendo a cualquier persona con necesidades computacionales convertirse en un proveedor.
Si la demanda de GPUs para el entrenamiento de IA se traduce en un uso sostenido de la red en Akash, aún está por verse. Históricamente, Akash ha ofrecido servicios de mercado basados en CPU con un descuento del 70-80% en comparación con las alternativas centralizadas, sin embargo, esta estrategia de precios no ha impulsado significativamente la adopción. La actividad de la red, medida por arrendamientos activos, se ha estancado, con un promedio del 33% de cálculo, 16% de memoria y 13% de utilización de almacenamiento para el segundo trimestre de 2023, impresionante para la adopción on-chain pero indicativo de que la oferta todavía supera la demanda. Medio año desde el lanzamiento de la red de GPU, es demasiado pronto para una evaluación definitiva de la adopción a largo plazo, aunque los primeros signos muestran un 44% de utilización promedio de GPU, impulsado principalmente por la demanda de GPUs de alta calidad como el A100, más del 90% de los cuales han sido alquilados.
Los gastos diarios de Akash casi se han duplicado desde la introducción de las GPU, atribuido en parte al aumento del uso de otros servicios, especialmente las CPUs, pero principalmente debido al nuevo uso de GPU.
Los precios son competitivos, o en algunos casos más caros que, los competidores centralizados como Lambda Cloud y Vast.ai. La alta demanda de GPUs de gama alta, como el H100 y A100, significa que la mayoría de los propietarios de este tipo de equipos no están interesados en listarlos en un mercado con precios competitivos.
A pesar de las ganancias iniciales, persisten barreras de adopción. Las redes informáticas descentralizadas deben dar pasos adicionales para generar demanda y suministro, con equipos explorando la mejor manera de atraer nuevos usuarios. Por ejemplo, a principios de 2024, Akash aprobó la Propuesta 240, aumentando la emisión de AKT para los proveedores de GPU para incentivar más suministro, especialmente para las GPU de alta gama. Los equipos también están trabajando en modelos de prueba de concepto para demostrar las capacidades en vivo de sus redes a los usuarios potenciales. Akash está capacitando sus modelos fundamentales y ha lanzado productos de generación de chatbot e imágenes que utilizan las GPU de Akash. De manera similar, io.net ha desarrollado un modelo de difusión estable y está lanzando nuevas funcionalidades de red para emular mejor el rendimiento y la escala de la red.
Además de las plataformas informáticas generales que pueden satisfacer las demandas de la inteligencia artificial, también está surgiendo un grupo de proveedores profesionales de GPU de IA centrados en el entrenamiento de modelos de aprendizaje automático. Por ejemplo, Gensyn está "coordinando potencia y hardware para construir inteligencia colectiva", con la filosofía de que "si alguien quiere entrenar algo y alguien está dispuesto a entrenarlo, entonces este entrenamiento debería ser permitido que ocurra".
Este protocolo implica cuatro participantes principales: los remitentes, los solucionadores, los validadores y los denunciantes. Los remitentes envían tareas con solicitudes de capacitación a la red. Estas tareas incluyen los objetivos de capacitación, los modelos a entrenar y los datos de entrenamiento. Como parte del proceso de envío, los remitentes deben pagar por adelantado el costo computacional estimado requerido por los solucionadores.
Después de la presentación, las tareas se asignan a los solucionadores que realmente realizan el entrenamiento del modelo. Luego, los solucionadores envían las tareas completadas a los validadores, quienes son responsables de verificar el entrenamiento para asegurarse de que se completó correctamente. Se encarga a los denunciantes garantizar que los validadores actúen honestamente. Para motivar a los denunciantes a participar en la red, Gensyn planea ofrecer regularmente pruebas deliberadamente incorrectas, recompensando a los denunciantes que las descubran.
Además de proporcionar cálculos para cargas de trabajo relacionadas con la IA, una propuesta de valor clave de Gensyn es su sistema de verificación, que aún está en desarrollo. La verificación es necesaria para garantizar que el cálculo externo realizado por los proveedores de GPU se ejecute correctamente (es decir, asegurar que los modelos de los usuarios se entrenen como desean). Gensyn aborda este problema con un enfoque único, utilizando métodos de verificación novedosos llamados "pruebas de aprendizaje probabilísticas, protocolos precisos basados en gráficos y juegos de incentivos al estilo Truebit". Este es un modelo de resolución optimista que permite a los validadores confirmar que los solucionadores han ejecutado el modelo correctamente sin necesidad de volver a ejecutar completamente el modelo ellos mismos, un proceso costoso e ineficiente.
Además de su innovador método de verificación, Gensyn también afirma ser rentable en comparación con las alternativas centralizadas y los competidores de criptomonedas, ofreciendo precios de formación en ML hasta un 80% más baratos que AWS, superando proyectos similares como Truebit en pruebas.
Si estos resultados iniciales pueden replicarse a gran escala en redes descentralizadas aún está por ver. Gensyn espera utilizar la capacidad computacional excedente de proveedores como pequeños centros de datos, usuarios minoristas y, eventualmente, dispositivos móviles pequeños como teléfonos inteligentes. Sin embargo, como admiten ellos mismos, el equipo de Gensyn, confiar en proveedores de computación heterogéneos introduce algunos desafíos nuevos.
Para proveedores centralizados como Google Cloud y Coreweave, los costos de computación son caros, pero la comunicación entre las computaciones (ancho de banda y latencia) es barata. Estos sistemas están diseñados para facilitar la comunicación entre hardware lo más rápido posible. Gensyn interrumpe este marco al reducir los costos de computación al permitir que cualquier persona en el mundo ofrezca GPUs, pero al mismo tiempo aumenta los costos de comunicación, ya que la red ahora debe coordinar trabajos de computación en hardware heterogéneo distante. Gensyn aún no se ha lanzado, pero representa una prueba de concepto que podría lograrse al construir un protocolo de entrenamiento descentralizado de aprendizaje automático.
Las plataformas de computación descentralizada también ofrecen la posibilidad de diseñar métodos para la creación de inteligencia artificial. Bittensor es un protocolo de computación descentralizada construido en Substrate, que intenta responder a la pregunta: “¿Cómo transformamos la inteligencia artificial en un método colaborativo?” Bittensor tiene como objetivo lograr la descentralización y la comercialización de la generación de IA. Lanzado en 2021, espera utilizar el poder de los modelos colaborativos de aprendizaje automático para iterar continuamente y producir una IA mejor.
Bittensor se inspira en Bitcoin, con su moneda nativa, TAO, que tiene un límite de suministro de 21 millones y un ciclo de reducción a la mitad cada cuatro años (la primera reducción a la mitad está programada para 2025). A diferencia de utilizar Prueba de Trabajo para generar números aleatorios correctos y ganar recompensas de bloque, Bittensor se basa en “Prueba de Inteligencia”, lo que requiere que los mineros ejecuten modelos para generar resultados en respuesta a solicitudes de inferencia.
Incentivizando la Inteligencia
Inicialmente, Bittensor se basaba en un modelo de Mezcla de Expertos (MoE) para generar resultados. Cuando se envía una solicitud de inferencia, el modelo MoE no se basa en un modelo generalizado, sino que envía la solicitud al modelo más preciso para el tipo de entrada dado. Imagina construir una casa, donde contratas a varios expertos para diferentes aspectos del proceso de construcción (por ejemplo, arquitectos, ingenieros, pintores, trabajadores de la construcción, etc.). MoE aplica esto a modelos de aprendizaje automático, tratando de aprovechar los resultados de diferentes modelos basados en la entrada. Como explicó el fundador de Bittensor, Ala Shaabana, esto es como "hablar con un grupo de personas inteligentes para obtener la mejor respuesta, en lugar de hablar con una sola persona." Debido a los desafíos para garantizar el enrutamiento correcto, la sincronización de mensajes al modelo correcto e incentivos, este método ha sido archivado hasta el desarrollo futuro del proyecto.
En la red Bittensor, hay dos participantes principales: validadores y mineros. Los validadores envían solicitudes de inferencia a los mineros, revisan sus resultados y los clasifican en función de la calidad de sus respuestas. Para garantizar que sus clasificaciones sean fiables, los validadores reciben una puntuación de "vtrust" basada en la coherencia de sus clasificaciones con las de otros validadores. Cuanto más alta sea la puntuación de vtrust de un validador, más emisiones de TAO recibirá. Esto es para incentivar a los validadores a llegar a un consenso sobre las clasificaciones de los modelos a lo largo del tiempo, ya que cuantos más validadores estén de acuerdo en las clasificaciones, mayores serán sus puntuaciones individuales de vtrust.
Los mineros, también conocidos como servidores, son participantes de la red que ejecutan los modelos de aprendizaje automático reales. Compiten para proporcionar las salidas más precisas para las consultas de los validadores, y cuanto más precisas sean las salidas, más emisiones de TAO ganan. Los mineros son libres de generar estas salidas como deseen. Por ejemplo, en el futuro, es completamente posible que los mineros de Bittensor hayan entrenado previamente modelos en Gensyn y los utilicen para ganar emisiones de TAO.
Hoy en día, la mayoría de las interacciones ocurren directamente entre validadores y mineros. Los validadores envían entradas a los mineros y solicitan salidas (es decir, entrenamiento de modelo). Una vez que los validadores consultan a los mineros en la red y reciben sus respuestas, clasifican a los mineros y envían sus clasificaciones a la red.
La interacción entre validadores (que dependen de PoS) y mineros (que dependen de Model Proof, una forma de PoW) se conoce como consenso Yuma. Su objetivo es incentivar a los mineros a producir los mejores resultados para ganar emisiones de TAO e incentivar a los validadores a clasificar con precisión las salidas de los mineros, ganando puntuaciones de vtrust más altas y aumentando sus recompensas de TAO, formando así un mecanismo de consenso para la red.
Subredes y Aplicaciones
Las interacciones en Bittensor principalmente implican que los validadores envíen solicitudes a los mineros y evalúen sus resultados. Sin embargo, a medida que la calidad de los mineros contribuyentes mejora y la inteligencia general de la red crece, Bittensor está creando una capa de aplicación encima de su pila existente para que los desarrolladores puedan construir aplicaciones que consulten la red Bittensor.
En octubre de 2023, Bittensor introdujo subredes a través de la actualización Revolution, dando un paso significativo hacia el logro de este objetivo. Las subredes son redes separadas en Bittensor que incentivan comportamientos específicos. La Revolución abrió la red a cualquier persona interesada en crear subredes. Dentro de meses de su lanzamiento, se han lanzado más de 32 subredes, incluidas subredes para mensajes de texto, extracción de datos, generación de imágenes y almacenamiento. A medida que las subredes maduren y estén listas para su uso, los creadores de subredes también crearán integraciones de aplicaciones, lo que permitirá a los equipos construir aplicaciones que consulten subredes específicas. Algunas aplicaciones, como chatbots, generadores de imágenes, bots de respuesta de Twitter y mercados de predicción, existen pero no hay incentivos formales más allá del financiamiento de la Fundación Bittensor para que los validadores acepten y reenvíen estas consultas.
Para una explicación más clara, a continuación se muestra un ejemplo de cómo Bittensor podría funcionar una vez que las aplicaciones estén integradas en la red.
Las subredes obtienen TAO en función del rendimiento evaluado por la red raíz. La red raíz, situada por encima de todas las subredes, actúa esencialmente como una subred especial y es gestionada por los 64 validadores de subredes más grandes por participación. Los validadores de la red raíz clasifican las subredes en función de su rendimiento y asignan periódicamente las emisiones de TAO a las subredes. De esta manera, las subredes individuales actúan como mineros para la red raíz.
Visión de Bittensor
Bittensor todavía está experimentando problemas de crecimiento a medida que expande la funcionalidad del protocolo para incentivar la generación de inteligencia a través de múltiples subredes. Los mineros están constantemente ideando nuevas formas de atacar la red para obtener más recompensas de TAO, como alterar ligeramente el resultado de las inferencias altamente calificadas ejecutadas por sus modelos y luego enviar múltiples variantes. Las propuestas de gobernanza que afecten a toda la red solo pueden ser presentadas e implementadas por el Triunvirato, compuesto en su totalidad por partes interesadas de la Fundación Opentensor (en particular, las propuestas requieren la aprobación del Senado de Bittensor, compuesto por validadores de Bittensor, antes de su implementación). La tokenómica del proyecto se está modificando para mejorar los incentivos para el uso de TAO entre subredes. El proyecto también ha ganado notoriedad rápidamente por su enfoque único, ya que el CEO de uno de los sitios web de IA más populares, HuggingFace, declaró que Bittensor debería agregar sus recursos al sitio.
En un reciente artículo titulado “Paradigma de Bittensor” publicado por los desarrolladores principales, el equipo delineó la visión de Bittensor de eventualmente volverse “agnóstico a lo que se mide”. Teóricamente, esto podría permitir a Bittensor desarrollar subredes que incentiven cualquier tipo de comportamiento respaldado por TAO. Todavía existen limitaciones prácticas considerables, principalmente demostrar que estas redes pueden escalar para manejar una gama tan diversa de procesos y que los incentivos potenciales impulsen el progreso más allá de los productos centralizados.
La sección anterior proporciona una visión general detallada de varios tipos de protocolos de computación descentralizada de inteligencia artificial (IA) actualmente en desarrollo. En sus primeras etapas de desarrollo y adopción, sientan las bases para un ecosistema que eventualmente podría facilitar la creación de “bloques de construcción de IA”, similar al concepto de “money Legos” en DeFi. La composabilidad de las blockchains sin permisos permite la posibilidad de que cada protocolo se construya sobre otro, creando un ecosistema de IA descentralizado más integral.
Por ejemplo, así es como Akash, Gensyn y Bittensor podrían interactuar para responder a las solicitudes de inferencia.
Es crucial entender que este es solo un ejemplo de lo que podría suceder en el futuro, no una representación del ecosistema actual, las asociaciones existentes o los resultados potenciales. Las limitaciones de interoperabilidad y otras consideraciones descritas a continuación restringen significativamente las posibilidades de integración hoy. Además, la fragmentación de la liquidez y la necesidad de utilizar múltiples tokens podrían dañar la experiencia del usuario, un punto señalado por los fundadores de Akash y Bittensor.
Más allá de la informática, se han introducido varios otros servicios de infraestructura descentralizada para respaldar el emergente ecosistema de IA dentro del espacio de las criptomonedas. Enumerar todos ellos está más allá del alcance de este informe, pero algunos ejemplos interesantes e ilustrativos incluyen:
En general, estos ejemplos apuntan a las oportunidades casi ilimitadas para explorar modelos de mercado descentralizados que respalden los modelos de IA o la infraestructura periférica necesaria para desarrollarlos. Actualmente, la mayoría de estos proyectos están en la etapa de prueba de concepto y requieren más investigación y desarrollo para demostrar que pueden operar a la escala necesaria para proporcionar servicios de IA completos.
Los productos de computación descentralizada todavía están en las primeras etapas de desarrollo. Acaban de comenzar a lanzar capacidades informáticas de última generación, capaces de entrenar los modelos de inteligencia artificial más potentes en producción. Para ganar una participación de mercado significativa, necesitan demostrar ventajas reales sobre las alternativas centralizadas. Los posibles desencadenantes para una adopción más amplia incluyen:
Los contratos inteligentes son la piedra angular de cualquier ecosistema de blockchain. Se ejecutan automáticamente bajo un conjunto de condiciones específicas, reduciendo o eliminando la necesidad de terceros de confianza, lo que permite la creación de aplicaciones descentralizadas complejas, como las de DeFi. Sin embargo, la funcionalidad de los contratos inteligentes sigue siendo limitada porque operan en base a parámetros preestablecidos que deben actualizarse.
Por ejemplo, un contrato inteligente desplegado para un protocolo de préstamo/pignoración, que contiene especificaciones sobre cuándo las posiciones deben ser liquidadas en función de ratios específicos de préstamo-valor. Si bien son útiles en entornos estáticos, estos contratos inteligentes necesitan actualizaciones constantes para adaptarse a los cambios en la tolerancia al riesgo en situaciones dinámicas, lo que presenta desafíos para los contratos no gestionados a través de procesos centralizados. Por ejemplo, las DAOs que dependen de procesos de gobernanza descentralizada pueden no reaccionar lo suficientemente rápido ante riesgos sistémicos.
Integrar inteligencia artificial (es decir, modelos de aprendizaje automático) en contratos inteligentes es una forma potencial de mejorar la funcionalidad, seguridad y eficiencia, al tiempo que se mejora la experiencia general del usuario. Sin embargo, estas integraciones también introducen riesgos adicionales, ya que es imposible garantizar que los modelos que sustentan estos contratos inteligentes no sean explotados o no puedan interpretar situaciones de cola larga (dada la escasez de datos de entrada, las situaciones de cola larga son difíciles de entrenar para los modelos).
El aprendizaje automático requiere una computación significativa para ejecutar modelos complejos, lo que hace que sea imposible ejecutar directamente modelos de IA en contratos inteligentes debido a los altos costos. Por ejemplo, un protocolo DeFi que ofrece modelos de optimización del rendimiento encontraría difícil ejecutar estos modelos en cadena sin incurrir en tarifas de Gas prohibitivas. Una solución es aumentar las capacidades computacionales de la cadena subyacente. Sin embargo, esto también aumenta los requisitos para los validadores de la cadena, comprometiendo potencialmente la descentralización. En cambio, algunos proyectos están explorando el uso de zkML para verificar salidas de una manera sin confianza sin necesidad de una computación intensiva en cadena.
Un ejemplo común que ilustra la utilidad de zkML es cuando los usuarios necesitan que otros ejecuten datos a través de modelos y verifiquen que sus contrapartes realmente han ejecutado el modelo correcto. Los desarrolladores que utilizan proveedores de computación descentralizada para entrenar sus modelos podrían preocuparse de que estos proveedores reduzcan costos al utilizar modelos más baratos que produzcan salidas con diferencias casi imperceptibles. zkML permite a los proveedores de computación ejecutar datos a través de sus modelos y luego generar pruebas que pueden ser verificadas en la cadena, demostrando que las salidas del modelo para las entradas dadas son correctas. En este escenario, el proveedor del modelo obtiene la ventaja añadida de poder ofrecer su modelo sin revelar los pesos subyacentes que produjeron las salidas.
También es posible lo contrario. Si los usuarios desean ejecutar modelos en sus datos pero no desean dar acceso a los proyectos de modelos a sus datos debido a preocupaciones de privacidad (por ejemplo, en revisiones médicas o información comercial patentada), pueden ejecutar el modelo en sus datos sin compartir los datos, y luego verificar a través de pruebas que han ejecutado el modelo correcto. Estas posibilidades amplían en gran medida el espacio de diseño para integrar las funcionalidades de inteligencia artificial y contratos inteligentes al abordar desafiantes limitaciones computacionales.
Dado el estado inicial del campo zkML, el desarrollo se centra principalmente en construir la infraestructura y las herramientas que los equipos necesitan para convertir sus modelos y resultados en pruebas verificables en la cadena. Estos productos abstraen los aspectos de conocimiento cero tanto como sea posible.
EZKL y Giza son dos proyectos que construyen tales herramientas proporcionando pruebas verificables de la ejecución del modelo de aprendizaje automático. Ambos ayudan a los equipos a construir modelos de aprendizaje automático para garantizar que estos modelos puedan ejecutarse de una manera que permita verificar los resultados en cadena de manera confiable. Ambos proyectos utilizan Open Neural Network Exchange (ONNX) para convertir modelos de aprendizaje automático escritos en lenguajes comunes como TensorFlow y Pytorch en un formato estándar. Luego, generan versiones de estos modelos que también generan pruebas zk al ejecutarse. EZKL es de código abierto, produciendo zk-SNARKs, mientras que Giza es de código cerrado, produciendo zk-STARKs. Ambos proyectos actualmente solo son compatibles con EVM.
En los últimos meses, EZKL ha avanzado significativamente en la mejora de las soluciones zkML, centrándose principalmente en la reducción de costos, la mejora de la seguridad y la aceleración de la generación de pruebas. Por ejemplo, en noviembre de 2023, EZKL integró una nueva biblioteca de GPU de código abierto que redujo el tiempo de prueba de agregación en un 35%; en enero, EZKL lanzó Lilith, una solución de software para integrar clústeres de computación de alto rendimiento y orquestar sistemas de trabajo concurrentes al usar pruebas de EZKL. La singularidad de Giza radica en proporcionar herramientas para crear modelos de aprendizaje automático verificables y planificar la implementación de un equivalente web3 de Hugging Face, abriendo un mercado de usuarios para la colaboración y el intercambio de modelos de zkML, e integrando finalmente productos de computación descentralizada. En enero, EZKL publicó una evaluación de referencia comparando el rendimiento de EZKL, Giza y RiscZero (como se describe a continuación), mostrando tiempos de prueba más rápidos y uso de memoria.
Modulus Labs está desarrollando actualmente una nueva tecnología de prueba de conocimiento cero (zk) específicamente adaptada para modelos de IA. Modulus publicó un documento titulado "Costo Inteligente", que implica que ejecutar modelos de IA en cadena incurre en costos prohibitivamente altos. Este documento, publicado en enero de 2023, compara los sistemas de prueba zk existentes para identificar mejoras en la capacidad de las pruebas zk y cuellos de botella dentro de los modelos de IA. Revela que los productos actuales son demasiado caros e ineficientes para aplicaciones de IA a gran escala. Basándose en la investigación inicial, Modulus lanzó Remainder en noviembre, un probador zk especializado destinado a reducir el costo y el tiempo de prueba para modelos de IA, haciendo que los proyectos sean económicamente viables para la integración a gran escala en contratos inteligentes. Su trabajo es propietario, lo que hace imposible compararlo con las soluciones mencionadas, pero fue citado recientemente en la publicación del blog de Vitalik sobre criptografía e inteligencia artificial.
El desarrollo de herramientas e infraestructura es crucial para el futuro crecimiento del espacio zkML, ya que puede reducir significativamente la fricción involucrada en implementar cálculos verificables fuera de la cadena y la necesidad de equipos zk. Crear interfaces seguras para practicantes de aprendizaje automático no nativos de criptomonedas para llevar sus modelos a la cadena permitirá a las aplicaciones experimentar con casos de uso verdaderamente novedosos. Además, estas herramientas abordan una barrera importante para la adopción más amplia de zkML: la falta de desarrolladores conocedores interesados en trabajar en la intersección de conocimiento cero, aprendizaje automático y criptografía.
Otras soluciones en desarrollo, denominadas "coprocesadores" (incluyendo RiscZero, Axiom y Ritual), desempeñan diversos roles, incluida la verificación de cálculos fuera de la cadena en la cadena. Al igual que EZKL, Giza y Modulus, su objetivo es abstraer por completo el proceso de generación de pruebas zk, creando máquinas virtuales de conocimiento cero capaces de ejecutar programas fuera de la cadena y generar pruebas verificables en la cadena. RiscZero y Axiom se adaptan a modelos de IA simples como coprocesadores más generales, mientras que Ritual está construido específicamente para su uso con modelos de IA.
La primera instancia de Ritual, Infernet, incluye un SDK de Infernet que permite a los desarrolladores enviar solicitudes de inferencia a la red y recibir salidas y pruebas opcionales a cambio. Los nodos de Infernet procesan estos cálculos fuera de la cadena antes de devolver las salidas. Por ejemplo, una DAO podría establecer un proceso que garantice que todas las nuevas propuestas de gobernanza cumplan con ciertos requisitos antes de su presentación. Cada vez que se presenta una nueva propuesta, el contrato de gobernanza activa una solicitud de inferencia a través de Infernet, invocando un modelo de IA entrenado específicamente para la gobernanza de la DAO. Este modelo revisa la propuesta para garantizar que se cumplan todos los estándares necesarios y devuelve salidas y pruebas para aprobar o rechazar la presentación de la propuesta.
Durante el próximo año, el equipo de Ritual planea introducir más características, formando una capa de infraestructura conocida como la supercadena de Ritual. Muchos de los proyectos discutidos podrían integrarse como proveedores de servicios en Ritual. El equipo de Ritual ya se ha integrado con EZKL para la generación de pruebas y pronto podría agregar características de otros proveedores líderes. Los nodos de Infernet en Ritual también podrían utilizar GPUs de Akash o io.net y consultar modelos entrenados en la subred de Bittensor. Su objetivo final es convertirse en el proveedor preferido de infraestructura de IA abierta, ofreciendo servicios para aprendizaje automático y otras tareas relacionadas con la IA para cualquier red y cualquier carga de trabajo.
zkML está ayudando a conciliar la dicotomía entre blockchain, que es inherentemente limitado en recursos, y la inteligencia artificial, que demanda recursos computacionales y de datos significativos. Como señala un fundador de Giza, "los casos de uso son increíblemente ricos... Es un poco como preguntar cuáles eran los casos de uso para los contratos inteligentes en los primeros días de Ethereum... Lo que estamos haciendo es simplemente ampliando los casos de uso para los contratos inteligentes." Sin embargo, como se señala, el desarrollo actual está ocurriendo predominantemente a nivel de herramientas e infraestructura. Las aplicaciones todavía se encuentran en la fase exploratoria, con equipos enfrentando el desafío de demostrar que el valor generado al implementar modelos con zkML supera su complejidad y coste.
Las aplicaciones actuales incluyen:
zkML sigue siendo experimental, con la mayoría de los proyectos enfocados en la construcción de infraestructuras primitivas y pruebas de concepto. Los desafíos actuales incluyen costos computacionales, limitaciones de memoria, complejidad del modelo, herramientas e infraestructura limitadas, y talento de desarrolladores. En resumen, hay un trabajo considerable por hacer antes de que zkML pueda implementarse a la escala requerida por los productos de consumo.
Sin embargo, a medida que el campo madura y se abordan estas limitaciones, zkML se convertirá en un componente clave para integrar la inteligencia artificial con la criptografía. Esencialmente, zkML promete llevar cualquier escala de cálculo fuera de la cadena a la cadena, manteniendo las mismas o similares garantías de seguridad que correr en la cadena. Sin embargo, antes de que se realice esta visión, los primeros adoptantes de la tecnología seguirán teniendo que equilibrar la privacidad y la seguridad de zkML contra la eficiencia de las alternativas.
Agentes de Inteligencia Artificial
Una de las integraciones más emocionantes de la inteligencia artificial y la criptomoneda es el experimento en curso con agentes de inteligencia artificial. Los agentes son robots autónomos capaces de recibir, interpretar y ejecutar tareas utilizando modelos de IA. Esto podría ir desde tener un asistente personal disponible en todo momento, ajustado a sus preferencias, hasta contratar un agente financiero para gestionar y ajustar su cartera de inversiones en función de sus preferencias de riesgo.
Dado que la criptomoneda ofrece una infraestructura de pago sin permisos y sin confianza, los agentes y la criptomoneda pueden integrarse bien. Una vez capacitados, los agentes tendrán una billetera, lo que les permitirá realizar transacciones por su cuenta utilizando contratos inteligentes. Por ejemplo, los agentes de hoy en día pueden extraer información en Internet y luego operar en mercados de predicción basados en modelos.
Morpheus es uno de los últimos proyectos de agente de código abierto lanzados en 2024 en Ethereum y Arbitrum. Su libro blanco fue publicado de forma anónima en septiembre de 2023, proporcionando una base para la formación y construcción de la comunidad, incluyendo figuras prominentes como Erik Vorhees. El libro blanco incluye un protocolo de agente inteligente descargable, un LLM de código abierto que puede ejecutarse localmente, gestionado por la billetera del usuario e interactuar con contratos inteligentes. Utiliza clasificaciones de contratos inteligentes para ayudar a los agentes a determinar con seguridad con qué contratos inteligentes pueden interactuar en función de criterios como el número de transacciones procesadas.
El libro blanco también proporciona un marco para construir la red Morpheus, incluyendo las estructuras de incentivos y la infraestructura necesaria para ejecutar el protocolo de agente inteligente. Esto incluye incentivos para los colaboradores para construir interfaces de usuario para interactuar con los agentes, API para que los desarrolladores construyan agentes complementarios para la interacción mutua, y soluciones en la nube para que los usuarios accedan a la computación y almacenamiento necesarios para ejecutar agentes en dispositivos periféricos. La financiación inicial del proyecto se lanzó a principios de febrero, con el protocolo completo previsto para ser lanzado en el segundo trimestre de 2024.
La Red de Infraestructura Autónoma Descentralizada (DAIN) es un nuevo protocolo de infraestructura de agente que construye una economía de agente a agente en Solana. El objetivo de DAIN es permitir que los agentes de diferentes empresas interactúen sin problemas entre sí a través de una API común, abriendo significativamente el espacio de diseño para los agentes de IA, centrándose en los agentes que pueden interactuar con los productos web2 y web3. En enero, DAIN anunció su primera asociación con Asset Shield, que permite a los usuarios agregar "firmantes de agentes" a sus firmas múltiples, capaces de interpretar transacciones y aprobar/rechazar en función de reglas establecidas por el usuario.
Fetch.AI es uno de los protocolos de agentes de IA desplegados más tempranos y ha desarrollado un ecosistema para construir, desplegar y utilizar agentes en cadena utilizando tokens FET y billeteras Fetch.AI. El protocolo ofrece un conjunto integral de herramientas y aplicaciones para utilizar agentes, incluidas funciones de monedero para interactuar con y ordenar agentes.
Autonolas, fundada por antiguos miembros del equipo de Fetch, es un mercado abierto para crear y utilizar agentes de IA descentralizados. Autonolas también proporciona un conjunto de herramientas para que los desarrolladores construyan agentes de IA alojados fuera de la cadena que puedan conectarse a múltiples blockchains, incluidos Polygon, Ethereum, Gnosis Chain y Solana. Actualmente tienen algunos productos de prueba de concepto de agentes activos, incluidos los mercados predictivos y la gobernanza de DAO.
SingularityNet está construyendo un mercado descentralizado para agentes de IA, donde se pueden desplegar agentes de IA especializados, que pueden ser contratados por otros agentes para realizar tareas complejas. Otras empresas como AlteredStateMachine están construyendo integraciones de agentes de IA con NFT. Los usuarios crean NFT con atributos aleatorios, lo que les otorga ventajas y desventajas en diferentes tareas. Estos agentes luego pueden ser entrenados para mejorar ciertos atributos para usar en juegos, DeFi o como asistentes virtuales, y ser intercambiados con otros usuarios.
En general, estos proyectos vislumbran un futuro ecosistema de agentes capaces de trabajar colaborativamente no solo para realizar tareas, sino también para ayudar a construir una inteligencia artificial general. Los agentes realmente complejos tendrán la capacidad de completar autónomamente cualquier tarea del usuario. Por ejemplo, los agentes completamente autónomos podrán averiguar cómo contratar a otro agente para integrar una API, luego ejecutar una tarea sin tener que asegurarse de que el agente ya se haya integrado con APIs externas (como sitios web de reservas de viajes) antes de usarlo. Desde la perspectiva del usuario, no es necesario comprobar si un agente puede completar una tarea, ya que el agente puede determinarlo por sí mismo.
En julio de 2023, Lightning Labs lanzó una implementación de prueba de concepto para utilizar agentes en la Lightning Network, apodada la suite de Bitcoin por LangChain. Este producto es particularmente intrigante porque tiene como objetivo abordar un problema que se está volviendo cada vez más grave en el mundo de la Web 2: las claves de API cerradas y costosas de las aplicaciones web.
LangChain aborda este problema proporcionando a los desarrolladores un conjunto de herramientas que permiten a los agentes comprar, vender y mantener Bitcoin, así como consultar claves API y enviar micropagos. En los rieles de pago tradicionales, los micropagos son prohibitivamente caros debido a las tarifas, pero en la Red Lightning, los agentes pueden enviar un número ilimitado de micropagos diariamente a un costo mínimo. Cuando se utiliza en conjunto con el marco de API de medición de pagos L402 de LangChain, las empresas pueden ajustar los costos de acceso de sus APIs en función de los aumentos y disminuciones en el uso, en lugar de establecer un estándar único y costoso.
En el futuro, las actividades de cadena serán impulsadas predominantemente por las interacciones entre agentes y agentes, lo que requiere mecanismos para garantizar que los agentes puedan interactuar entre sí sin costos prohibitivos. Este ejemplo temprano demuestra el potencial de utilizar agentes en rieles de pago sin permiso y económicamente eficientes, abriendo posibilidades para nuevos mercados e interacciones económicas.
El campo de los agentes todavía está en pañales. Los proyectos apenas han comenzado a lanzar agentes funcionales capaces de manejar tareas simples, con acceso típicamente limitado a desarrolladores y usuarios experimentados. Sin embargo, con el tiempo, uno de los impactos más significativos de los agentes de inteligencia artificial en la criptomoneda será la mejora de la experiencia del usuario en todos los verticales. Las transacciones comenzarán a pasar de basadas en clics a basadas en texto, lo que permitirá a los usuarios interactuar con agentes en cadena a través de interfaces conversacionales. Equipos como Dawn Wallet ya han lanzado billeteras de chatbot, lo que permite a los usuarios interactuar en cadena.
Además, no está claro cómo operarán los agentes en la Web 2, ya que los raíles financieros dependen de instituciones bancarias reguladas que no pueden operar las 24 horas del día, los 7 días de la semana o facilitar transacciones transfronterizas sin problemas. Como destacó Lyn Alden, la falta de reembolsos y la capacidad para manejar microtransacciones hacen que los raíles de criptomonedas sean particularmente atractivos en comparación con las tarjetas de crédito. Sin embargo, si los agentes se convierten en un medio más común para las transacciones, es probable que los proveedores de pagos y las aplicaciones existentes se adapten rápidamente, implementando la infraestructura necesaria para operar en los raíles financieros existentes, disminuyendo así algunos beneficios de usar criptomonedas.
Actualmente, los agentes pueden estar limitados a transacciones de criptomonedas deterministas, donde una entrada dada garantiza una salida dada. Ambos modelos han destacado la capacidad de estos agentes para descubrir cómo realizar tareas complejas, y las herramientas están ampliando el rango de tareas que pueden completar, ambas requieren un mayor desarrollo. Para que los agentes de cripto se vuelvan útiles más allá de los nuevos casos de uso de criptomonedas en cadena, se necesita una integración y aceptación más amplias de las criptomonedas como forma de pago, junto con una claridad regulatoria. Sin embargo, a medida que estos componentes se desarrollan, los agentes están preparados para convertirse en uno de los mayores consumidores de computación descentralizada y soluciones zkML, recibiendo y resolviendo cualquier tarea de manera no determinista de forma autónoma.
La IA introduce las mismas innovaciones en las criptomonedas que hemos visto en la web2, mejorando todo, desde el desarrollo de infraestructuras hasta la experiencia del usuario y la accesibilidad. Sin embargo, los proyectos aún están en las primeras etapas de desarrollo, y la integración a corto plazo de las criptomonedas y la IA estará impulsada principalmente por integraciones fuera de la cadena.
Productos como Copilot están destinados a "aumentar la eficiencia del desarrollador en 10 veces," y las aplicaciones de Capa 1 y DeFi ya han lanzado plataformas de desarrollo asistidas por IA en colaboración con grandes empresas como Microsoft. Empresas como Cub3.ai y Test Machine están desarrollando integraciones de IA para la auditoría de contratos inteligentes y monitoreo de amenazas en tiempo real para mejorar la seguridad en cadena. Los chatbots LLM están siendo entrenados con datos en cadena, documentación de protocolo y aplicaciones para proporcionar a los usuarios una mayor accesibilidad y experiencia de usuario.
El desafío para integraciones más avanzadas que realmente aprovechen la tecnología subyacente de las criptomonedas sigue siendo demostrar que implementar soluciones de IA en cadena es técnicamente y económicamente factible. El desarrollo de computación descentralizada, zkML y agentes de IA apunta a verticales prometedores que sientan las bases para un futuro profundamente interconectado de criptomonedas e IA.
La aparición de blockchains públicos marca un avance profundo en la historia de la ciencia de la computación, mientras que el desarrollo de la inteligencia artificial está teniendo un impacto significativo en nuestro mundo. La tecnología blockchain ofrece nuevos modelos para el arreglo de transacciones, almacenamiento de datos y diseño de sistemas, mientras que la inteligencia artificial representa una revolución en la computación, el análisis y la entrega de contenido. Las innovaciones en estas industrias están desencadenando nuevos casos de uso que podrían acelerar la adopción de ambos sectores en los próximos años. Este informe examina la integración continua de criptomonedas e inteligencia artificial, centrándose en casos de uso novedosos que buscan cerrar la brecha entre ambos y aprovechar sus fortalezas. Se analizan específicamente proyectos que desarrollan protocolos de computación descentralizada, infraestructura de aprendizaje automático de conocimiento cero (zkML) y agentes de inteligencia artificial.
Las criptomonedas ofrecen una capa de liquidación permisionada, sin confianza y componible para la inteligencia artificial, desbloqueando casos de uso como un acceso más fácil al hardware a través de sistemas informáticos descentralizados, la creación de agentes de inteligencia artificial capaces de ejecutar tareas complejas que requieren intercambio de valor, y el desarrollo de soluciones de identidad y procedencia para contrarrestar ataques de Sybil y deepfakes. La IA aporta a las criptomonedas muchos de los mismos beneficios vistos en la Web 2.0, incluidas experiencias mejoradas para usuarios y desarrolladores a través de modelos de lenguaje amplios como ChatGPT y Copilot, y un potencial de funcionalidad y automatización significativamente mejorado para contratos inteligentes. La cadena de bloques proporciona el entorno transparente y rico en datos necesario para la IA, aunque la limitada potencia informática de la cadena de bloques es una barrera importante para la integración directa de modelos de IA.
Los experimentos y la adopción eventual en la intersección de la criptomoneda y la IA son impulsados por las mismas fuerzas que impulsan los casos de uso más prometedores para la criptomoneda: acceso a una capa de coordinación sin permisos y sin confianza, facilitando una mejor transferencia de valor. Dado el vasto potencial, los interesados en este campo necesitan comprender las formas fundamentales en que estas tecnologías se intersectan.
La inteligencia artificial es el uso de la computación y las máquinas para imitar las capacidades de razonamiento y resolución de problemas de los humanos.
Las redes neuronales son un método para entrenar modelos de inteligencia artificial. Ejecutan entradas a través de capas algorítmicas discretas, refinándolas hasta que se produzca la salida deseada. Las redes neuronales consisten en ecuaciones con pesos que pueden ajustarse para cambiar la salida. Pueden requerir datos extensos y cálculos para el entrenamiento para garantizar salidas precisas. Esta es una de las formas más comunes de desarrollar modelos de IA (por ejemplo, ChatGPT se basa en un proceso de red neuronal basado en Transformadores).
El entrenamiento es el proceso de desarrollo de redes neuronales y otros modelos de IA. Requiere una cantidad significativa de datos para entrenar a los modelos para que interpreten correctamente las entradas y produzcan resultados precisos. Durante el entrenamiento, las ponderaciones de las ecuaciones del modelo se modifican continuamente hasta que se produce un resultado satisfactorio. La capacitación puede ser muy costosa. Por ejemplo, ChatGPT utiliza decenas de miles de sus propias GPU para procesar datos. Los equipos con menos recursos a menudo dependen de proveedores informáticos especializados, como los proveedores de Amazon Web Services, Azure y Google Cloud.
La inferencia es el uso real de modelos de IA para obtener salidas o resultados (por ejemplo, utilizando ChatGPT para crear un esquema para un documento sobre la intersección de criptomonedas e IA). La inferencia se utiliza durante todo el proceso de entrenamiento y en el producto final. Debido a los costos computacionales, incluso después de que el entrenamiento esté completo, sus costos operativos pueden ser altos, aunque su intensidad computacional es menor que la del entrenamiento.
Las pruebas de conocimiento cero (ZKP) permiten la verificación de declaraciones sin revelar información subyacente. Esto es útil en criptomonedas por dos razones principales: 1) Privacidad y 2) Escalabilidad. En cuanto a la privacidad, permite a los usuarios realizar transacciones sin revelar información sensible (por ejemplo, cuánto ETH hay en una billetera). En cuanto a la escalabilidad, permite probar las computaciones fuera de la cadena más rápidamente que reejecutar las computaciones. Esto permite que las cadenas de bloques y las aplicaciones ejecuten computaciones de forma económica fuera de la cadena y luego las verifiquen en la cadena. Para obtener más información sobre el conocimiento cero y su papel en las Máquinas Virtuales Ethereum, consulte el informe de Christine Kim sobre zkEVMs: El Futuro de la Escalabilidad de Ethereum.
Los proyectos que integran inteligencia artificial y criptomonedas todavía están construyendo la infraestructura subyacente necesaria para respaldar interacciones de inteligencia artificial a gran escala en la cadena.
Los mercados de computación descentralizada están surgiendo para proporcionar el vasto hardware físico necesario para entrenar e inferir modelos de IA, principalmente en forma de Unidades de Procesamiento Gráfico (GPUs). Estos mercados de dos lados conectan a aquellos que alquilan y buscan alquilar computación, facilitando la transferencia de valor y la verificación de cálculos. Dentro de la computación descentralizada, están surgiendo varias subcategorías que ofrecen funcionalidades adicionales. Además de los mercados bilaterales, este informe también revisa los proveedores de entrenamiento de aprendizaje automático que ofrecen entrenamiento verificable y ajuste fino de salidas, así como proyectos dedicados a vincular la computación y la generación de modelos para habilitar la IA, a menudo referidos como redes de incentivos inteligentes.
zkML es un área de enfoque emergente para proyectos que tienen como objetivo proporcionar resultados de modelos verificables en la cadena de una manera económicamente viable y oportuna. Estos proyectos permiten principalmente que las aplicaciones manejen solicitudes computacionales pesadas fuera de la cadena y luego publiquen resultados verificables en la cadena, lo que demuestra que la carga de trabajo fuera de la cadena fue completa y precisa. En la actualidad, zkML es caro y requiere mucho tiempo, pero se utiliza cada vez más como solución. Esto es evidente en el creciente número de integraciones entre los proveedores de zkML y las aplicaciones DeFi/gaming que desean aprovechar los modelos de IA.
La amplia oferta de cálculo y la capacidad de verificar el cálculo en cadena abren la puerta a agentes de IA en cadena. Los agentes son modelos entrenados capaces de ejecutar solicitudes en nombre de los usuarios. Los agentes ofrecen la oportunidad de mejorar significativamente la experiencia en cadena, permitiendo a los usuarios ejecutar transacciones complejas simplemente conversando con un chatbot. Sin embargo, hasta el momento, los proyectos de agentes siguen centrados en desarrollar la infraestructura y herramientas para una implementación fácil y rápida.
La inteligencia artificial requiere una extensa computación para entrenar modelos y ejecutar inferencias. Durante la última década, a medida que los modelos se han vuelto cada vez más complejos, la demanda de computación ha crecido exponencialmente. Por ejemplo, OpenAI observó que desde 2012 hasta 2018, la demanda computacional de sus modelos se duplicó cada dos años, pasando a duplicarse cada tres meses y medio. Esto llevó a un aumento en la demanda de GPUs, con algunos mineros de criptomonedas incluso reutilizando sus GPUs para ofrecer servicios de computación en la nube. A medida que la competencia por el acceso computacional se intensifica y los costos aumentan, algunos proyectos están aprovechando la tecnología criptográfica para ofrecer soluciones de computación descentralizada. Ofrecen computación bajo demanda a precios competitivos, permitiendo a los equipos entrenar y ejecutar modelos de manera asequible. En algunos casos, los compromisos pueden implicar rendimiento y seguridad.
La demanda de GPUs de última generación (por ejemplo, los producidos por Nvidia) es significativa. En septiembre, Tether adquirió una participación en el minero de bitcoins alemán Northern Data, reportando un gasto de $420 millones para comprar 10,000 GPUs H100 (uno de los GPUs más avanzados para entrenamiento de IA). El tiempo de espera para adquirir hardware de primera categoría puede ser de al menos seis meses, si no más en muchos casos. Peor aún, a menudo se requiere que las empresas firmen contratos a largo plazo para asegurar volúmenes computacionales que ni siquiera podrían llegar a utilizar. Esto puede llevar a situaciones en las que los recursos computacionales estén disponibles pero no sean accesibles en el mercado. Los sistemas informáticos descentralizados ayudan a abordar estas ineficiencias del mercado al crear un mercado secundario donde los propietarios de computación pueden subarrendar inmediatamente su capacidad excesiva tras recibir una notificación, liberando así nueva oferta.
Además de precios competitivos y accesibilidad, una propuesta de valor clave de la computación descentralizada es la resistencia a la censura. El desarrollo de IA de vanguardia está siendo cada vez más dominado por grandes empresas tecnológicas con capacidades de acceso a datos y computacionales incomparables. El primer tema clave destacado en el Informe Anual del Índice de IA 2023 fue el creciente sobrepaso de la academia por parte de la industria en el desarrollo de modelos de IA, concentrando el control en manos de unos pocos líderes tecnológicos. Esto plantea preocupaciones sobre su potencial para ejercer una influencia significativa en el establecimiento de normas y valores que sustentan los modelos de IA, especialmente después de que estas empresas tecnológicas presionen para que se regulen para limitar el desarrollo de IA incontrolable.
Varios modelos de computación descentralizada han surgido en los últimos años, cada uno con su propio enfoque y compensaciones.
A grandes rasgos, proyectos como Akash, io.net, iExec y Cudos son aplicaciones de la computación descentralizada, que ofrecen más allá de los datos y las soluciones computacionales generales, acceso a la computación especializada para el entrenamiento y la inferencia de la IA. Akash se destaca como la única plataforma de "súper nube" de código abierto, que utiliza el SDK de Cosmos para su red de prueba de participación. AKT, el token nativo de Akash, sirve como método de pago para asegurar la red e incentivar la participación. Lanzada en 2020, la red principal de Akash se centró inicialmente en un mercado de computación en la nube sin permisos, con servicios de almacenamiento y arrendamiento de CPU. En junio de 2023, Akash presentó una red de prueba centrada en la GPU, seguida del lanzamiento de una red principal de GPU en septiembre, lo que permitió el entrenamiento de IA y el alquiler de GPU de inferencia.
El ecosistema de Akash consta de dos participantes principales: los inquilinos, que buscan recursos informáticos, y los proveedores, los proveedores informáticos. Un proceso de subasta inversa facilita la coincidencia de inquilinos y proveedores, donde los inquilinos publican sus requisitos de proceso, incluidas las ubicaciones de servidor o los tipos de hardware preferidos y su presupuesto. A continuación, los proveedores pujan, y el postor más bajo se adjudica la tarea. Los validadores mantienen la integridad de la red, con un límite actual de 100 validadores, que se prevé que aumente con el tiempo. La participación como validador está abierta a aquellos que apuesten más AKT que el validador actual menos apostado. Los titulares de AKT pueden delegar sus tokens a validadores, con tarifas de transacción y recompensas por bloque distribuidas en AKT. Además, por cada arrendamiento, la red Akash gana una "tasa de aceptación", decidida por la comunidad, que se distribuye a los titulares de AKT.
El mercado secundario de computación descentralizada tiene como objetivo abordar las ineficiencias en el mercado computacional existente, donde las limitaciones de suministro llevan a las empresas a acaparar recursos más allá de sus necesidades y los contratos a largo plazo con proveedores de servicios en la nube limitan aún más el suministro. Las plataformas de computación descentralizada desbloquean un nuevo suministro, permitiendo a cualquier persona con necesidades computacionales convertirse en un proveedor.
Si la demanda de GPUs para el entrenamiento de IA se traduce en un uso sostenido de la red en Akash, aún está por verse. Históricamente, Akash ha ofrecido servicios de mercado basados en CPU con un descuento del 70-80% en comparación con las alternativas centralizadas, sin embargo, esta estrategia de precios no ha impulsado significativamente la adopción. La actividad de la red, medida por arrendamientos activos, se ha estancado, con un promedio del 33% de cálculo, 16% de memoria y 13% de utilización de almacenamiento para el segundo trimestre de 2023, impresionante para la adopción on-chain pero indicativo de que la oferta todavía supera la demanda. Medio año desde el lanzamiento de la red de GPU, es demasiado pronto para una evaluación definitiva de la adopción a largo plazo, aunque los primeros signos muestran un 44% de utilización promedio de GPU, impulsado principalmente por la demanda de GPUs de alta calidad como el A100, más del 90% de los cuales han sido alquilados.
Los gastos diarios de Akash casi se han duplicado desde la introducción de las GPU, atribuido en parte al aumento del uso de otros servicios, especialmente las CPUs, pero principalmente debido al nuevo uso de GPU.
Los precios son competitivos, o en algunos casos más caros que, los competidores centralizados como Lambda Cloud y Vast.ai. La alta demanda de GPUs de gama alta, como el H100 y A100, significa que la mayoría de los propietarios de este tipo de equipos no están interesados en listarlos en un mercado con precios competitivos.
A pesar de las ganancias iniciales, persisten barreras de adopción. Las redes informáticas descentralizadas deben dar pasos adicionales para generar demanda y suministro, con equipos explorando la mejor manera de atraer nuevos usuarios. Por ejemplo, a principios de 2024, Akash aprobó la Propuesta 240, aumentando la emisión de AKT para los proveedores de GPU para incentivar más suministro, especialmente para las GPU de alta gama. Los equipos también están trabajando en modelos de prueba de concepto para demostrar las capacidades en vivo de sus redes a los usuarios potenciales. Akash está capacitando sus modelos fundamentales y ha lanzado productos de generación de chatbot e imágenes que utilizan las GPU de Akash. De manera similar, io.net ha desarrollado un modelo de difusión estable y está lanzando nuevas funcionalidades de red para emular mejor el rendimiento y la escala de la red.
Además de las plataformas informáticas generales que pueden satisfacer las demandas de la inteligencia artificial, también está surgiendo un grupo de proveedores profesionales de GPU de IA centrados en el entrenamiento de modelos de aprendizaje automático. Por ejemplo, Gensyn está "coordinando potencia y hardware para construir inteligencia colectiva", con la filosofía de que "si alguien quiere entrenar algo y alguien está dispuesto a entrenarlo, entonces este entrenamiento debería ser permitido que ocurra".
Este protocolo implica cuatro participantes principales: los remitentes, los solucionadores, los validadores y los denunciantes. Los remitentes envían tareas con solicitudes de capacitación a la red. Estas tareas incluyen los objetivos de capacitación, los modelos a entrenar y los datos de entrenamiento. Como parte del proceso de envío, los remitentes deben pagar por adelantado el costo computacional estimado requerido por los solucionadores.
Después de la presentación, las tareas se asignan a los solucionadores que realmente realizan el entrenamiento del modelo. Luego, los solucionadores envían las tareas completadas a los validadores, quienes son responsables de verificar el entrenamiento para asegurarse de que se completó correctamente. Se encarga a los denunciantes garantizar que los validadores actúen honestamente. Para motivar a los denunciantes a participar en la red, Gensyn planea ofrecer regularmente pruebas deliberadamente incorrectas, recompensando a los denunciantes que las descubran.
Además de proporcionar cálculos para cargas de trabajo relacionadas con la IA, una propuesta de valor clave de Gensyn es su sistema de verificación, que aún está en desarrollo. La verificación es necesaria para garantizar que el cálculo externo realizado por los proveedores de GPU se ejecute correctamente (es decir, asegurar que los modelos de los usuarios se entrenen como desean). Gensyn aborda este problema con un enfoque único, utilizando métodos de verificación novedosos llamados "pruebas de aprendizaje probabilísticas, protocolos precisos basados en gráficos y juegos de incentivos al estilo Truebit". Este es un modelo de resolución optimista que permite a los validadores confirmar que los solucionadores han ejecutado el modelo correctamente sin necesidad de volver a ejecutar completamente el modelo ellos mismos, un proceso costoso e ineficiente.
Además de su innovador método de verificación, Gensyn también afirma ser rentable en comparación con las alternativas centralizadas y los competidores de criptomonedas, ofreciendo precios de formación en ML hasta un 80% más baratos que AWS, superando proyectos similares como Truebit en pruebas.
Si estos resultados iniciales pueden replicarse a gran escala en redes descentralizadas aún está por ver. Gensyn espera utilizar la capacidad computacional excedente de proveedores como pequeños centros de datos, usuarios minoristas y, eventualmente, dispositivos móviles pequeños como teléfonos inteligentes. Sin embargo, como admiten ellos mismos, el equipo de Gensyn, confiar en proveedores de computación heterogéneos introduce algunos desafíos nuevos.
Para proveedores centralizados como Google Cloud y Coreweave, los costos de computación son caros, pero la comunicación entre las computaciones (ancho de banda y latencia) es barata. Estos sistemas están diseñados para facilitar la comunicación entre hardware lo más rápido posible. Gensyn interrumpe este marco al reducir los costos de computación al permitir que cualquier persona en el mundo ofrezca GPUs, pero al mismo tiempo aumenta los costos de comunicación, ya que la red ahora debe coordinar trabajos de computación en hardware heterogéneo distante. Gensyn aún no se ha lanzado, pero representa una prueba de concepto que podría lograrse al construir un protocolo de entrenamiento descentralizado de aprendizaje automático.
Las plataformas de computación descentralizada también ofrecen la posibilidad de diseñar métodos para la creación de inteligencia artificial. Bittensor es un protocolo de computación descentralizada construido en Substrate, que intenta responder a la pregunta: “¿Cómo transformamos la inteligencia artificial en un método colaborativo?” Bittensor tiene como objetivo lograr la descentralización y la comercialización de la generación de IA. Lanzado en 2021, espera utilizar el poder de los modelos colaborativos de aprendizaje automático para iterar continuamente y producir una IA mejor.
Bittensor se inspira en Bitcoin, con su moneda nativa, TAO, que tiene un límite de suministro de 21 millones y un ciclo de reducción a la mitad cada cuatro años (la primera reducción a la mitad está programada para 2025). A diferencia de utilizar Prueba de Trabajo para generar números aleatorios correctos y ganar recompensas de bloque, Bittensor se basa en “Prueba de Inteligencia”, lo que requiere que los mineros ejecuten modelos para generar resultados en respuesta a solicitudes de inferencia.
Incentivizando la Inteligencia
Inicialmente, Bittensor se basaba en un modelo de Mezcla de Expertos (MoE) para generar resultados. Cuando se envía una solicitud de inferencia, el modelo MoE no se basa en un modelo generalizado, sino que envía la solicitud al modelo más preciso para el tipo de entrada dado. Imagina construir una casa, donde contratas a varios expertos para diferentes aspectos del proceso de construcción (por ejemplo, arquitectos, ingenieros, pintores, trabajadores de la construcción, etc.). MoE aplica esto a modelos de aprendizaje automático, tratando de aprovechar los resultados de diferentes modelos basados en la entrada. Como explicó el fundador de Bittensor, Ala Shaabana, esto es como "hablar con un grupo de personas inteligentes para obtener la mejor respuesta, en lugar de hablar con una sola persona." Debido a los desafíos para garantizar el enrutamiento correcto, la sincronización de mensajes al modelo correcto e incentivos, este método ha sido archivado hasta el desarrollo futuro del proyecto.
En la red Bittensor, hay dos participantes principales: validadores y mineros. Los validadores envían solicitudes de inferencia a los mineros, revisan sus resultados y los clasifican en función de la calidad de sus respuestas. Para garantizar que sus clasificaciones sean fiables, los validadores reciben una puntuación de "vtrust" basada en la coherencia de sus clasificaciones con las de otros validadores. Cuanto más alta sea la puntuación de vtrust de un validador, más emisiones de TAO recibirá. Esto es para incentivar a los validadores a llegar a un consenso sobre las clasificaciones de los modelos a lo largo del tiempo, ya que cuantos más validadores estén de acuerdo en las clasificaciones, mayores serán sus puntuaciones individuales de vtrust.
Los mineros, también conocidos como servidores, son participantes de la red que ejecutan los modelos de aprendizaje automático reales. Compiten para proporcionar las salidas más precisas para las consultas de los validadores, y cuanto más precisas sean las salidas, más emisiones de TAO ganan. Los mineros son libres de generar estas salidas como deseen. Por ejemplo, en el futuro, es completamente posible que los mineros de Bittensor hayan entrenado previamente modelos en Gensyn y los utilicen para ganar emisiones de TAO.
Hoy en día, la mayoría de las interacciones ocurren directamente entre validadores y mineros. Los validadores envían entradas a los mineros y solicitan salidas (es decir, entrenamiento de modelo). Una vez que los validadores consultan a los mineros en la red y reciben sus respuestas, clasifican a los mineros y envían sus clasificaciones a la red.
La interacción entre validadores (que dependen de PoS) y mineros (que dependen de Model Proof, una forma de PoW) se conoce como consenso Yuma. Su objetivo es incentivar a los mineros a producir los mejores resultados para ganar emisiones de TAO e incentivar a los validadores a clasificar con precisión las salidas de los mineros, ganando puntuaciones de vtrust más altas y aumentando sus recompensas de TAO, formando así un mecanismo de consenso para la red.
Subredes y Aplicaciones
Las interacciones en Bittensor principalmente implican que los validadores envíen solicitudes a los mineros y evalúen sus resultados. Sin embargo, a medida que la calidad de los mineros contribuyentes mejora y la inteligencia general de la red crece, Bittensor está creando una capa de aplicación encima de su pila existente para que los desarrolladores puedan construir aplicaciones que consulten la red Bittensor.
En octubre de 2023, Bittensor introdujo subredes a través de la actualización Revolution, dando un paso significativo hacia el logro de este objetivo. Las subredes son redes separadas en Bittensor que incentivan comportamientos específicos. La Revolución abrió la red a cualquier persona interesada en crear subredes. Dentro de meses de su lanzamiento, se han lanzado más de 32 subredes, incluidas subredes para mensajes de texto, extracción de datos, generación de imágenes y almacenamiento. A medida que las subredes maduren y estén listas para su uso, los creadores de subredes también crearán integraciones de aplicaciones, lo que permitirá a los equipos construir aplicaciones que consulten subredes específicas. Algunas aplicaciones, como chatbots, generadores de imágenes, bots de respuesta de Twitter y mercados de predicción, existen pero no hay incentivos formales más allá del financiamiento de la Fundación Bittensor para que los validadores acepten y reenvíen estas consultas.
Para una explicación más clara, a continuación se muestra un ejemplo de cómo Bittensor podría funcionar una vez que las aplicaciones estén integradas en la red.
Las subredes obtienen TAO en función del rendimiento evaluado por la red raíz. La red raíz, situada por encima de todas las subredes, actúa esencialmente como una subred especial y es gestionada por los 64 validadores de subredes más grandes por participación. Los validadores de la red raíz clasifican las subredes en función de su rendimiento y asignan periódicamente las emisiones de TAO a las subredes. De esta manera, las subredes individuales actúan como mineros para la red raíz.
Visión de Bittensor
Bittensor todavía está experimentando problemas de crecimiento a medida que expande la funcionalidad del protocolo para incentivar la generación de inteligencia a través de múltiples subredes. Los mineros están constantemente ideando nuevas formas de atacar la red para obtener más recompensas de TAO, como alterar ligeramente el resultado de las inferencias altamente calificadas ejecutadas por sus modelos y luego enviar múltiples variantes. Las propuestas de gobernanza que afecten a toda la red solo pueden ser presentadas e implementadas por el Triunvirato, compuesto en su totalidad por partes interesadas de la Fundación Opentensor (en particular, las propuestas requieren la aprobación del Senado de Bittensor, compuesto por validadores de Bittensor, antes de su implementación). La tokenómica del proyecto se está modificando para mejorar los incentivos para el uso de TAO entre subredes. El proyecto también ha ganado notoriedad rápidamente por su enfoque único, ya que el CEO de uno de los sitios web de IA más populares, HuggingFace, declaró que Bittensor debería agregar sus recursos al sitio.
En un reciente artículo titulado “Paradigma de Bittensor” publicado por los desarrolladores principales, el equipo delineó la visión de Bittensor de eventualmente volverse “agnóstico a lo que se mide”. Teóricamente, esto podría permitir a Bittensor desarrollar subredes que incentiven cualquier tipo de comportamiento respaldado por TAO. Todavía existen limitaciones prácticas considerables, principalmente demostrar que estas redes pueden escalar para manejar una gama tan diversa de procesos y que los incentivos potenciales impulsen el progreso más allá de los productos centralizados.
La sección anterior proporciona una visión general detallada de varios tipos de protocolos de computación descentralizada de inteligencia artificial (IA) actualmente en desarrollo. En sus primeras etapas de desarrollo y adopción, sientan las bases para un ecosistema que eventualmente podría facilitar la creación de “bloques de construcción de IA”, similar al concepto de “money Legos” en DeFi. La composabilidad de las blockchains sin permisos permite la posibilidad de que cada protocolo se construya sobre otro, creando un ecosistema de IA descentralizado más integral.
Por ejemplo, así es como Akash, Gensyn y Bittensor podrían interactuar para responder a las solicitudes de inferencia.
Es crucial entender que este es solo un ejemplo de lo que podría suceder en el futuro, no una representación del ecosistema actual, las asociaciones existentes o los resultados potenciales. Las limitaciones de interoperabilidad y otras consideraciones descritas a continuación restringen significativamente las posibilidades de integración hoy. Además, la fragmentación de la liquidez y la necesidad de utilizar múltiples tokens podrían dañar la experiencia del usuario, un punto señalado por los fundadores de Akash y Bittensor.
Más allá de la informática, se han introducido varios otros servicios de infraestructura descentralizada para respaldar el emergente ecosistema de IA dentro del espacio de las criptomonedas. Enumerar todos ellos está más allá del alcance de este informe, pero algunos ejemplos interesantes e ilustrativos incluyen:
En general, estos ejemplos apuntan a las oportunidades casi ilimitadas para explorar modelos de mercado descentralizados que respalden los modelos de IA o la infraestructura periférica necesaria para desarrollarlos. Actualmente, la mayoría de estos proyectos están en la etapa de prueba de concepto y requieren más investigación y desarrollo para demostrar que pueden operar a la escala necesaria para proporcionar servicios de IA completos.
Los productos de computación descentralizada todavía están en las primeras etapas de desarrollo. Acaban de comenzar a lanzar capacidades informáticas de última generación, capaces de entrenar los modelos de inteligencia artificial más potentes en producción. Para ganar una participación de mercado significativa, necesitan demostrar ventajas reales sobre las alternativas centralizadas. Los posibles desencadenantes para una adopción más amplia incluyen:
Los contratos inteligentes son la piedra angular de cualquier ecosistema de blockchain. Se ejecutan automáticamente bajo un conjunto de condiciones específicas, reduciendo o eliminando la necesidad de terceros de confianza, lo que permite la creación de aplicaciones descentralizadas complejas, como las de DeFi. Sin embargo, la funcionalidad de los contratos inteligentes sigue siendo limitada porque operan en base a parámetros preestablecidos que deben actualizarse.
Por ejemplo, un contrato inteligente desplegado para un protocolo de préstamo/pignoración, que contiene especificaciones sobre cuándo las posiciones deben ser liquidadas en función de ratios específicos de préstamo-valor. Si bien son útiles en entornos estáticos, estos contratos inteligentes necesitan actualizaciones constantes para adaptarse a los cambios en la tolerancia al riesgo en situaciones dinámicas, lo que presenta desafíos para los contratos no gestionados a través de procesos centralizados. Por ejemplo, las DAOs que dependen de procesos de gobernanza descentralizada pueden no reaccionar lo suficientemente rápido ante riesgos sistémicos.
Integrar inteligencia artificial (es decir, modelos de aprendizaje automático) en contratos inteligentes es una forma potencial de mejorar la funcionalidad, seguridad y eficiencia, al tiempo que se mejora la experiencia general del usuario. Sin embargo, estas integraciones también introducen riesgos adicionales, ya que es imposible garantizar que los modelos que sustentan estos contratos inteligentes no sean explotados o no puedan interpretar situaciones de cola larga (dada la escasez de datos de entrada, las situaciones de cola larga son difíciles de entrenar para los modelos).
El aprendizaje automático requiere una computación significativa para ejecutar modelos complejos, lo que hace que sea imposible ejecutar directamente modelos de IA en contratos inteligentes debido a los altos costos. Por ejemplo, un protocolo DeFi que ofrece modelos de optimización del rendimiento encontraría difícil ejecutar estos modelos en cadena sin incurrir en tarifas de Gas prohibitivas. Una solución es aumentar las capacidades computacionales de la cadena subyacente. Sin embargo, esto también aumenta los requisitos para los validadores de la cadena, comprometiendo potencialmente la descentralización. En cambio, algunos proyectos están explorando el uso de zkML para verificar salidas de una manera sin confianza sin necesidad de una computación intensiva en cadena.
Un ejemplo común que ilustra la utilidad de zkML es cuando los usuarios necesitan que otros ejecuten datos a través de modelos y verifiquen que sus contrapartes realmente han ejecutado el modelo correcto. Los desarrolladores que utilizan proveedores de computación descentralizada para entrenar sus modelos podrían preocuparse de que estos proveedores reduzcan costos al utilizar modelos más baratos que produzcan salidas con diferencias casi imperceptibles. zkML permite a los proveedores de computación ejecutar datos a través de sus modelos y luego generar pruebas que pueden ser verificadas en la cadena, demostrando que las salidas del modelo para las entradas dadas son correctas. En este escenario, el proveedor del modelo obtiene la ventaja añadida de poder ofrecer su modelo sin revelar los pesos subyacentes que produjeron las salidas.
También es posible lo contrario. Si los usuarios desean ejecutar modelos en sus datos pero no desean dar acceso a los proyectos de modelos a sus datos debido a preocupaciones de privacidad (por ejemplo, en revisiones médicas o información comercial patentada), pueden ejecutar el modelo en sus datos sin compartir los datos, y luego verificar a través de pruebas que han ejecutado el modelo correcto. Estas posibilidades amplían en gran medida el espacio de diseño para integrar las funcionalidades de inteligencia artificial y contratos inteligentes al abordar desafiantes limitaciones computacionales.
Dado el estado inicial del campo zkML, el desarrollo se centra principalmente en construir la infraestructura y las herramientas que los equipos necesitan para convertir sus modelos y resultados en pruebas verificables en la cadena. Estos productos abstraen los aspectos de conocimiento cero tanto como sea posible.
EZKL y Giza son dos proyectos que construyen tales herramientas proporcionando pruebas verificables de la ejecución del modelo de aprendizaje automático. Ambos ayudan a los equipos a construir modelos de aprendizaje automático para garantizar que estos modelos puedan ejecutarse de una manera que permita verificar los resultados en cadena de manera confiable. Ambos proyectos utilizan Open Neural Network Exchange (ONNX) para convertir modelos de aprendizaje automático escritos en lenguajes comunes como TensorFlow y Pytorch en un formato estándar. Luego, generan versiones de estos modelos que también generan pruebas zk al ejecutarse. EZKL es de código abierto, produciendo zk-SNARKs, mientras que Giza es de código cerrado, produciendo zk-STARKs. Ambos proyectos actualmente solo son compatibles con EVM.
En los últimos meses, EZKL ha avanzado significativamente en la mejora de las soluciones zkML, centrándose principalmente en la reducción de costos, la mejora de la seguridad y la aceleración de la generación de pruebas. Por ejemplo, en noviembre de 2023, EZKL integró una nueva biblioteca de GPU de código abierto que redujo el tiempo de prueba de agregación en un 35%; en enero, EZKL lanzó Lilith, una solución de software para integrar clústeres de computación de alto rendimiento y orquestar sistemas de trabajo concurrentes al usar pruebas de EZKL. La singularidad de Giza radica en proporcionar herramientas para crear modelos de aprendizaje automático verificables y planificar la implementación de un equivalente web3 de Hugging Face, abriendo un mercado de usuarios para la colaboración y el intercambio de modelos de zkML, e integrando finalmente productos de computación descentralizada. En enero, EZKL publicó una evaluación de referencia comparando el rendimiento de EZKL, Giza y RiscZero (como se describe a continuación), mostrando tiempos de prueba más rápidos y uso de memoria.
Modulus Labs está desarrollando actualmente una nueva tecnología de prueba de conocimiento cero (zk) específicamente adaptada para modelos de IA. Modulus publicó un documento titulado "Costo Inteligente", que implica que ejecutar modelos de IA en cadena incurre en costos prohibitivamente altos. Este documento, publicado en enero de 2023, compara los sistemas de prueba zk existentes para identificar mejoras en la capacidad de las pruebas zk y cuellos de botella dentro de los modelos de IA. Revela que los productos actuales son demasiado caros e ineficientes para aplicaciones de IA a gran escala. Basándose en la investigación inicial, Modulus lanzó Remainder en noviembre, un probador zk especializado destinado a reducir el costo y el tiempo de prueba para modelos de IA, haciendo que los proyectos sean económicamente viables para la integración a gran escala en contratos inteligentes. Su trabajo es propietario, lo que hace imposible compararlo con las soluciones mencionadas, pero fue citado recientemente en la publicación del blog de Vitalik sobre criptografía e inteligencia artificial.
El desarrollo de herramientas e infraestructura es crucial para el futuro crecimiento del espacio zkML, ya que puede reducir significativamente la fricción involucrada en implementar cálculos verificables fuera de la cadena y la necesidad de equipos zk. Crear interfaces seguras para practicantes de aprendizaje automático no nativos de criptomonedas para llevar sus modelos a la cadena permitirá a las aplicaciones experimentar con casos de uso verdaderamente novedosos. Además, estas herramientas abordan una barrera importante para la adopción más amplia de zkML: la falta de desarrolladores conocedores interesados en trabajar en la intersección de conocimiento cero, aprendizaje automático y criptografía.
Otras soluciones en desarrollo, denominadas "coprocesadores" (incluyendo RiscZero, Axiom y Ritual), desempeñan diversos roles, incluida la verificación de cálculos fuera de la cadena en la cadena. Al igual que EZKL, Giza y Modulus, su objetivo es abstraer por completo el proceso de generación de pruebas zk, creando máquinas virtuales de conocimiento cero capaces de ejecutar programas fuera de la cadena y generar pruebas verificables en la cadena. RiscZero y Axiom se adaptan a modelos de IA simples como coprocesadores más generales, mientras que Ritual está construido específicamente para su uso con modelos de IA.
La primera instancia de Ritual, Infernet, incluye un SDK de Infernet que permite a los desarrolladores enviar solicitudes de inferencia a la red y recibir salidas y pruebas opcionales a cambio. Los nodos de Infernet procesan estos cálculos fuera de la cadena antes de devolver las salidas. Por ejemplo, una DAO podría establecer un proceso que garantice que todas las nuevas propuestas de gobernanza cumplan con ciertos requisitos antes de su presentación. Cada vez que se presenta una nueva propuesta, el contrato de gobernanza activa una solicitud de inferencia a través de Infernet, invocando un modelo de IA entrenado específicamente para la gobernanza de la DAO. Este modelo revisa la propuesta para garantizar que se cumplan todos los estándares necesarios y devuelve salidas y pruebas para aprobar o rechazar la presentación de la propuesta.
Durante el próximo año, el equipo de Ritual planea introducir más características, formando una capa de infraestructura conocida como la supercadena de Ritual. Muchos de los proyectos discutidos podrían integrarse como proveedores de servicios en Ritual. El equipo de Ritual ya se ha integrado con EZKL para la generación de pruebas y pronto podría agregar características de otros proveedores líderes. Los nodos de Infernet en Ritual también podrían utilizar GPUs de Akash o io.net y consultar modelos entrenados en la subred de Bittensor. Su objetivo final es convertirse en el proveedor preferido de infraestructura de IA abierta, ofreciendo servicios para aprendizaje automático y otras tareas relacionadas con la IA para cualquier red y cualquier carga de trabajo.
zkML está ayudando a conciliar la dicotomía entre blockchain, que es inherentemente limitado en recursos, y la inteligencia artificial, que demanda recursos computacionales y de datos significativos. Como señala un fundador de Giza, "los casos de uso son increíblemente ricos... Es un poco como preguntar cuáles eran los casos de uso para los contratos inteligentes en los primeros días de Ethereum... Lo que estamos haciendo es simplemente ampliando los casos de uso para los contratos inteligentes." Sin embargo, como se señala, el desarrollo actual está ocurriendo predominantemente a nivel de herramientas e infraestructura. Las aplicaciones todavía se encuentran en la fase exploratoria, con equipos enfrentando el desafío de demostrar que el valor generado al implementar modelos con zkML supera su complejidad y coste.
Las aplicaciones actuales incluyen:
zkML sigue siendo experimental, con la mayoría de los proyectos enfocados en la construcción de infraestructuras primitivas y pruebas de concepto. Los desafíos actuales incluyen costos computacionales, limitaciones de memoria, complejidad del modelo, herramientas e infraestructura limitadas, y talento de desarrolladores. En resumen, hay un trabajo considerable por hacer antes de que zkML pueda implementarse a la escala requerida por los productos de consumo.
Sin embargo, a medida que el campo madura y se abordan estas limitaciones, zkML se convertirá en un componente clave para integrar la inteligencia artificial con la criptografía. Esencialmente, zkML promete llevar cualquier escala de cálculo fuera de la cadena a la cadena, manteniendo las mismas o similares garantías de seguridad que correr en la cadena. Sin embargo, antes de que se realice esta visión, los primeros adoptantes de la tecnología seguirán teniendo que equilibrar la privacidad y la seguridad de zkML contra la eficiencia de las alternativas.
Agentes de Inteligencia Artificial
Una de las integraciones más emocionantes de la inteligencia artificial y la criptomoneda es el experimento en curso con agentes de inteligencia artificial. Los agentes son robots autónomos capaces de recibir, interpretar y ejecutar tareas utilizando modelos de IA. Esto podría ir desde tener un asistente personal disponible en todo momento, ajustado a sus preferencias, hasta contratar un agente financiero para gestionar y ajustar su cartera de inversiones en función de sus preferencias de riesgo.
Dado que la criptomoneda ofrece una infraestructura de pago sin permisos y sin confianza, los agentes y la criptomoneda pueden integrarse bien. Una vez capacitados, los agentes tendrán una billetera, lo que les permitirá realizar transacciones por su cuenta utilizando contratos inteligentes. Por ejemplo, los agentes de hoy en día pueden extraer información en Internet y luego operar en mercados de predicción basados en modelos.
Morpheus es uno de los últimos proyectos de agente de código abierto lanzados en 2024 en Ethereum y Arbitrum. Su libro blanco fue publicado de forma anónima en septiembre de 2023, proporcionando una base para la formación y construcción de la comunidad, incluyendo figuras prominentes como Erik Vorhees. El libro blanco incluye un protocolo de agente inteligente descargable, un LLM de código abierto que puede ejecutarse localmente, gestionado por la billetera del usuario e interactuar con contratos inteligentes. Utiliza clasificaciones de contratos inteligentes para ayudar a los agentes a determinar con seguridad con qué contratos inteligentes pueden interactuar en función de criterios como el número de transacciones procesadas.
El libro blanco también proporciona un marco para construir la red Morpheus, incluyendo las estructuras de incentivos y la infraestructura necesaria para ejecutar el protocolo de agente inteligente. Esto incluye incentivos para los colaboradores para construir interfaces de usuario para interactuar con los agentes, API para que los desarrolladores construyan agentes complementarios para la interacción mutua, y soluciones en la nube para que los usuarios accedan a la computación y almacenamiento necesarios para ejecutar agentes en dispositivos periféricos. La financiación inicial del proyecto se lanzó a principios de febrero, con el protocolo completo previsto para ser lanzado en el segundo trimestre de 2024.
La Red de Infraestructura Autónoma Descentralizada (DAIN) es un nuevo protocolo de infraestructura de agente que construye una economía de agente a agente en Solana. El objetivo de DAIN es permitir que los agentes de diferentes empresas interactúen sin problemas entre sí a través de una API común, abriendo significativamente el espacio de diseño para los agentes de IA, centrándose en los agentes que pueden interactuar con los productos web2 y web3. En enero, DAIN anunció su primera asociación con Asset Shield, que permite a los usuarios agregar "firmantes de agentes" a sus firmas múltiples, capaces de interpretar transacciones y aprobar/rechazar en función de reglas establecidas por el usuario.
Fetch.AI es uno de los protocolos de agentes de IA desplegados más tempranos y ha desarrollado un ecosistema para construir, desplegar y utilizar agentes en cadena utilizando tokens FET y billeteras Fetch.AI. El protocolo ofrece un conjunto integral de herramientas y aplicaciones para utilizar agentes, incluidas funciones de monedero para interactuar con y ordenar agentes.
Autonolas, fundada por antiguos miembros del equipo de Fetch, es un mercado abierto para crear y utilizar agentes de IA descentralizados. Autonolas también proporciona un conjunto de herramientas para que los desarrolladores construyan agentes de IA alojados fuera de la cadena que puedan conectarse a múltiples blockchains, incluidos Polygon, Ethereum, Gnosis Chain y Solana. Actualmente tienen algunos productos de prueba de concepto de agentes activos, incluidos los mercados predictivos y la gobernanza de DAO.
SingularityNet está construyendo un mercado descentralizado para agentes de IA, donde se pueden desplegar agentes de IA especializados, que pueden ser contratados por otros agentes para realizar tareas complejas. Otras empresas como AlteredStateMachine están construyendo integraciones de agentes de IA con NFT. Los usuarios crean NFT con atributos aleatorios, lo que les otorga ventajas y desventajas en diferentes tareas. Estos agentes luego pueden ser entrenados para mejorar ciertos atributos para usar en juegos, DeFi o como asistentes virtuales, y ser intercambiados con otros usuarios.
En general, estos proyectos vislumbran un futuro ecosistema de agentes capaces de trabajar colaborativamente no solo para realizar tareas, sino también para ayudar a construir una inteligencia artificial general. Los agentes realmente complejos tendrán la capacidad de completar autónomamente cualquier tarea del usuario. Por ejemplo, los agentes completamente autónomos podrán averiguar cómo contratar a otro agente para integrar una API, luego ejecutar una tarea sin tener que asegurarse de que el agente ya se haya integrado con APIs externas (como sitios web de reservas de viajes) antes de usarlo. Desde la perspectiva del usuario, no es necesario comprobar si un agente puede completar una tarea, ya que el agente puede determinarlo por sí mismo.
En julio de 2023, Lightning Labs lanzó una implementación de prueba de concepto para utilizar agentes en la Lightning Network, apodada la suite de Bitcoin por LangChain. Este producto es particularmente intrigante porque tiene como objetivo abordar un problema que se está volviendo cada vez más grave en el mundo de la Web 2: las claves de API cerradas y costosas de las aplicaciones web.
LangChain aborda este problema proporcionando a los desarrolladores un conjunto de herramientas que permiten a los agentes comprar, vender y mantener Bitcoin, así como consultar claves API y enviar micropagos. En los rieles de pago tradicionales, los micropagos son prohibitivamente caros debido a las tarifas, pero en la Red Lightning, los agentes pueden enviar un número ilimitado de micropagos diariamente a un costo mínimo. Cuando se utiliza en conjunto con el marco de API de medición de pagos L402 de LangChain, las empresas pueden ajustar los costos de acceso de sus APIs en función de los aumentos y disminuciones en el uso, en lugar de establecer un estándar único y costoso.
En el futuro, las actividades de cadena serán impulsadas predominantemente por las interacciones entre agentes y agentes, lo que requiere mecanismos para garantizar que los agentes puedan interactuar entre sí sin costos prohibitivos. Este ejemplo temprano demuestra el potencial de utilizar agentes en rieles de pago sin permiso y económicamente eficientes, abriendo posibilidades para nuevos mercados e interacciones económicas.
El campo de los agentes todavía está en pañales. Los proyectos apenas han comenzado a lanzar agentes funcionales capaces de manejar tareas simples, con acceso típicamente limitado a desarrolladores y usuarios experimentados. Sin embargo, con el tiempo, uno de los impactos más significativos de los agentes de inteligencia artificial en la criptomoneda será la mejora de la experiencia del usuario en todos los verticales. Las transacciones comenzarán a pasar de basadas en clics a basadas en texto, lo que permitirá a los usuarios interactuar con agentes en cadena a través de interfaces conversacionales. Equipos como Dawn Wallet ya han lanzado billeteras de chatbot, lo que permite a los usuarios interactuar en cadena.
Además, no está claro cómo operarán los agentes en la Web 2, ya que los raíles financieros dependen de instituciones bancarias reguladas que no pueden operar las 24 horas del día, los 7 días de la semana o facilitar transacciones transfronterizas sin problemas. Como destacó Lyn Alden, la falta de reembolsos y la capacidad para manejar microtransacciones hacen que los raíles de criptomonedas sean particularmente atractivos en comparación con las tarjetas de crédito. Sin embargo, si los agentes se convierten en un medio más común para las transacciones, es probable que los proveedores de pagos y las aplicaciones existentes se adapten rápidamente, implementando la infraestructura necesaria para operar en los raíles financieros existentes, disminuyendo así algunos beneficios de usar criptomonedas.
Actualmente, los agentes pueden estar limitados a transacciones de criptomonedas deterministas, donde una entrada dada garantiza una salida dada. Ambos modelos han destacado la capacidad de estos agentes para descubrir cómo realizar tareas complejas, y las herramientas están ampliando el rango de tareas que pueden completar, ambas requieren un mayor desarrollo. Para que los agentes de cripto se vuelvan útiles más allá de los nuevos casos de uso de criptomonedas en cadena, se necesita una integración y aceptación más amplias de las criptomonedas como forma de pago, junto con una claridad regulatoria. Sin embargo, a medida que estos componentes se desarrollan, los agentes están preparados para convertirse en uno de los mayores consumidores de computación descentralizada y soluciones zkML, recibiendo y resolviendo cualquier tarea de manera no determinista de forma autónoma.
La IA introduce las mismas innovaciones en las criptomonedas que hemos visto en la web2, mejorando todo, desde el desarrollo de infraestructuras hasta la experiencia del usuario y la accesibilidad. Sin embargo, los proyectos aún están en las primeras etapas de desarrollo, y la integración a corto plazo de las criptomonedas y la IA estará impulsada principalmente por integraciones fuera de la cadena.
Productos como Copilot están destinados a "aumentar la eficiencia del desarrollador en 10 veces," y las aplicaciones de Capa 1 y DeFi ya han lanzado plataformas de desarrollo asistidas por IA en colaboración con grandes empresas como Microsoft. Empresas como Cub3.ai y Test Machine están desarrollando integraciones de IA para la auditoría de contratos inteligentes y monitoreo de amenazas en tiempo real para mejorar la seguridad en cadena. Los chatbots LLM están siendo entrenados con datos en cadena, documentación de protocolo y aplicaciones para proporcionar a los usuarios una mayor accesibilidad y experiencia de usuario.
El desafío para integraciones más avanzadas que realmente aprovechen la tecnología subyacente de las criptomonedas sigue siendo demostrar que implementar soluciones de IA en cadena es técnicamente y económicamente factible. El desarrollo de computación descentralizada, zkML y agentes de IA apunta a verticales prometedores que sientan las bases para un futuro profundamente interconectado de criptomonedas e IA.