La llegada de blockchains públicos es uno de los avances más profundos en la historia de la ciencia informática. Pero el desarrollo de la inteligencia artificial tendrá, de hecho ya está teniendo, un impacto profundo en nuestro mundo. Si la tecnología blockchain proporciona una nueva plantilla para liquidación de transacciones, almacenamiento de datos y diseño de sistemas, la inteligencia artificial es una revolución en computación, análisis y entrega de contenido. La innovación en las dos industrias está desbloqueando nuevos casos de uso que podrían acelerar la adopción de ambas en los próximos años. Este informe explora las integraciones en curso de cripto y AI con un enfoque en casos de uso novedosos que intentan cerrar la brecha entre ambos, aprovechando el poder de ambos. Específicamente, este informe examina proyectos que desarrollan protocolos de cálculo descentralizado, infraestructura de aprendizaje automático de conocimiento cero (zkML) y agentes de AI.
La cripto proporciona a la IA una capa de liquidación permisionada, sin confianza y componible. Esto desbloquea casos de uso como hacer que el hardware sea más accesible a través de sistemas informáticos descentralizados, construir agentes de IA que pueden ejecutar tareas complejas que requieren el intercambio de valor, y desarrollar soluciones de identidad y procedencia para combatir ataques de Sybil y deep fakes. La IA aporta a la cripto muchos de los mismos beneficios que vemos en la Web 2. Esto incluye una mejor experiencia de usuario (UX) tanto para usuarios como para desarrolladores gracias a modelos de lenguaje grandes (es decir, versiones especialmente entrenadas de ChatGPT y Copilot) así como el potencial para mejorar significativamente la funcionalidad y automatización de contratos inteligentes. Las cadenas de bloques son los entornos transparentes y ricos en datos que necesita la IA. Pero las cadenas de bloques también tienen una capacidad computacional limitada, un obstáculo importante para la integración directa de modelos de IA.
La fuerza impulsora detrás de la experimentación continua y la adopción eventual en la intersección de la cripto y la IA es la misma que impulsa gran parte de los casos de uso más prometedores de la cripto: acceso a una capa de coordinación sin permiso y sin confianza que facilita mejor la transferencia de valor. Dado el enorme potencial, los participantes en el espacio necesitan entender las formas fundamentales en que se intersectan las dos tecnologías.
La Inteligencia Artificial es el uso de la computación y las máquinas para imitar el razonamiento y las habilidades de resolución de problemas de los seres humanos.
Las Redes Neuronales son un método de entrenamiento para modelos de IA. Ejecutan entradas a través de capas discretas de algoritmos, refinándolas hasta que se produce la salida deseada. Las redes neuronales están compuestas por ecuaciones que tienen pesos que pueden modificarse para cambiar la salida. Pueden requerir cantidades increíbles de datos y cálculos para ser entrenadas para que sus salidas sean precisas. Es una de las formas más comunes en las que se desarrollan modelos de IA (ChatGPT utiliza un proceso de red neuronal dependiente de)transformers).
El entrenamiento es el proceso mediante el cual se desarrollan redes neuronales y otros modelos de IA. Requiere grandes cantidades de datos para entrenar modelos que interpreten correctamente las entradas y produzcan salidas precisas. Durante el proceso de entrenamiento, los pesos de la ecuación del modelo se modifican continuamente hasta que se produce una salida satisfactoria. El entrenamiento puede ser muy caro. ChatGPT, por ejemplo, utilizadecenas de miles de sus propias GPUs para procesar sus datos. Los equipos con menos recursos a menudo dependen de proveedores de cómputo dedicados como Amazon Web Services, Azure y Google Cloud Providers.
La inferencia es el uso real de un modelo de IA para obtener una salida o resultado (por ejemplo, utilizar ChatGPT para crear un esquema para un trabajo sobre la intersección de la cripto y la IA). Las inferencias se utilizan a lo largo del proceso de entrenamiento y en el producto final. Pueden ser costosas de ejecutar, incluso después de que se complete el entrenamiento, debido a los costos computacionales, pero son menos intensivas computacionalmente que el entrenamiento.
Las Pruebas de Conocimiento Cero (ZKP) permiten la verificación de una afirmación sin revelar la información subyacente. Esto es útil en cripto por dos razones principales: 1) privacidad y 2) escalabilidad. Para la privacidad, esto permite a los usuarios realizar transacciones sin revelar información sensible como cuánto ETH hay en su billetera. Para la escalabilidad, permite que la computación fuera de la cadena se demuestre en la cadena más rápidamente que teniendo que reejecutar la computación. Esto permite que las cadenas de bloques y las aplicaciones ejecuten computaciones de forma económica fuera de la cadena y luego las verifiquen en la cadena. Para obtener más información sobre el conocimiento cero y su papel en la Máquina Virtual Ethereum, consulte el informe de Christine Kim.zkEVMs: El Futuro de la Escalabilidad de Ethereum.
Los proyectos en la intersección de la inteligencia artificial y la cripto todavía están desarrollando la infraestructura subyacente necesaria para respaldar las interacciones de inteligencia artificial en cadena a gran escala.
Los mercados de computación descentralizada están surgiendo para suministrar grandes cantidades de hardware físico, principalmente en forma de unidades de procesamiento gráfico (GPU), necesarias para el entrenamiento y la inferencia de modelos de IA. Estos mercados de dos caras conectan a quienes arriendan y buscan arrendar cómputo, facilitando la transferencia de valor y la verificación del cómputo. Dentro de la computación descentralizada están surgiendo varias subcategorías que brindan funcionalidades adicionales. Además de los mercados de dos caras, este informe examinará a los proveedores de entrenamiento de aprendizaje automático que se especializan en el servicio de entrenamiento verificable y ajustes finos, así como proyectos que trabajan para conectar cómputo y generación de modelos para lograr inteligencia artificial general, también conocida frecuentemente como redes de incentivos de inteligencia.
zkML es un área emergente de enfoque para proyectos que desean proporcionar salidas de modelos verificables en cadena de manera rentable y oportuna. Estos proyectos principalmente permiten que las aplicaciones manejen solicitudes de cálculo pesadas fuera de la cadena, y luego publiquen en cadena una salida verificable que demuestre que la carga de trabajo fuera de la cadena está completa y es precisa. zkML es tanto costoso como consumidor de tiempo en su implementación actual, pero cada vez se utiliza más como solución. Esto es evidente en el creciente número de integraciones entre proveedores de zkML y aplicaciones de DeFi/Juegos que desean aprovechar modelos de IA.
La amplia oferta de cálculo y la capacidad de verificar ese cálculo en cadena abren la puerta a agentes de IA en cadena. Los agentes son modelos entrenados capaces de ejecutar solicitudes en nombre de un usuario. Los agentes ofrecen la oportunidad de mejorar significativamente la experiencia en cadena, permitiendo a los usuarios ejecutar transacciones complejas simplemente hablando con un chatbot. Sin embargo, tal como existen hoy en día, los proyectos de Agentes siguen centrándose en desarrollar la infraestructura y las herramientas para una implementación fácil y rápida.
La IA requiere grandes cantidades de cálculo, tanto para entrenar modelos como para ejecutar inferencias. Durante la última década, a medida que los modelos se han vuelto más sofisticados, los requisitos de cálculo han crecido exponencialmente. OpenAI, por ejemplo,encontradoque entre 2012 y 2018, los requisitos de computación para sus modelos pasaron de duplicarse cada dos años a cada tres meses y medio. Esto ha llevado a un aumento en la demanda de GPUs con algunos mineros de cripto inclusoreutilizando sus GPUspara proporcionar servicios de computación en la nube (@jeff.washington/2024-02-06-solana-mainnet-beta-outage-report-619bd75b3ce0">más sobre esto en nuestro informe anual de minería de Bitcoin). A medida que aumenta la competencia para acceder a la computación y los costos aumentan, varios proyectos están utilizando cripto para proporcionar soluciones de computación descentralizadas. Ofrecen computación bajo demanda a precios competitivos para que los equipos puedan entrenar y ejecutar modelos de manera asequible. El compromiso, en algunos casos, puede ser el rendimiento y la seguridad.
GPU de última generación, como los producidospor Nvidia, tienen una gran demanda. En septiembre, Tetheradquiridouna participación en Northern Data, un minero de Bitcoin alemán, supuestamente pagando $420 millones para adquirir 10,000 GPUs H100 (una de las GPUs más avanzadas para entrenamiento de IA).EsperarLos tiempos para el hardware de mejor calidad pueden ser de al menos seis meses, y en muchos casos más largos. Para empeorar la situación, a menudo se requiere que las empresas firmen contratos a largo plazo por cantidades de cómputo que ni siquiera podrían usar. Esto puede dar lugar a situaciones en las que hay cómputo disponible, pero no está disponible en el mercado. Los sistemas de cómputo descentralizado ayudan a abordar estas ineficiencias del mercado, creando un mercado secundario donde los propietarios de cómputo pueden subarrendar su capacidad excedente en cualquier momento, desbloqueando nueva oferta.
Además de precios competitivos y accesibilidad, la propuesta de valor clave de la informática descentralizada es la resistencia a la censura. El desarrollo de inteligencia artificial de vanguardia está siendo cada vez más dominado por grandes empresas tecnológicas con un acceso sin precedentes a la informática y los datos. El primer tema clave destacado en el Informe del Índice de IAEl informe anual de 2023 es que la industria está superando cada vez más a la academia en el desarrollo de modelos de IA, centralizando el control en manos de unos pocos líderes tecnológicos. Esto ha suscitado preocupaciones sobre su capacidad para tener una influencia desmedida en la dictación de las normas y valores que sustentan los modelos de IA, especialmente tras la regulación empujapor estas mismas empresas tecnológicas para frenar el desarrollo de la IA fuera de su control.
Varios modelos de computación descentralizada han surgido en los últimos años, cada uno con su propio enfoque y compensaciones.
Proyectos como Akash, io.net, iExec, Cudos y muchos otros son aplicaciones de cómputo descentralizado que ofrecen acceso, o pronto ofrecerán acceso, a cómputo especializado para entrenamiento e inferencias de IA además de datos y soluciones de cómputo generalizado.
Akash es actualmente la única plataforma de "supercloud" completamente de código abierto. Es una red de prueba de participación que utiliza Cosmos SDK. AKT, el token nativo de Akash, se utiliza para asegurar la red, como forma de pago y para incentivar la participación. Akash lanzó su primera mainnet en 2020 centrada en proporcionar un mercado de computación en la nube sin permisos, que inicialmente ofrece servicios de arrendamiento de almacenamiento y CPU. En junio de 2023, Akash Lanzado una nueva red de prueba centrada en las GPU y en septiembre lanzadosu GPU mainnet permite a los usuarios arrendar GPUs para entrenamiento de IA e inferencias.
Hay dos actores principales en el ecosistema de Akash: Inquilinos y Proveedores. Los inquilinos son usuarios de la red de Akash que desean comprar recursos computacionales. Los Proveedores son los suministradores de cómputo. Para emparejar inquilinos y proveedores, Akash confía en un proceso de subasta inversa. Los inquilinos envían sus requisitos de cómputo, dentro de los cuales pueden especificar ciertas condiciones como la ubicación de los servidores o el tipo de hardware que realiza el cómputo, y la cantidad que están dispuestos a pagar. Los Proveedores luego envían su precio de oferta, siendo la oferta más baja la que recibe la tarea.
Los validadores Akash mantienen la integridad de la red. El conjunto de validadores está actualmente limitado a 100 con planes de aumentar gradualmente con el tiempo. Cualquiera puede convertirse en validador apostando más AKT que el validador actual con la menor cantidad de AKT apostado. Los titulares de AKT también pueden delegar su AKT a los validadores. Las tarifas de transacción y las recompensas por bloque para la red se distribuyen en AKT. Además, por cada arrendamiento, la red Akash gana una "tarifa de toma" a una tasa determinada por la comunidad que se distribuye a los titulares de AKT.
Los mercados informáticos descentralizados tienen como objetivo llenar las ineficiencias en el mercado informático existente. Las restricciones de suministro están llevando a las empresas a acaparar recursos informáticos más allá de lo que puedan necesitar, y el suministro está aún más restringido debido a la estructura de los contratos con proveedores de nube que obligan a los clientes a compromisos a largo plazo, aunque el acceso continuado pueda no ser necesario. Las plataformas informáticas descentralizadas desbloquean nuevos suministros, permitiendo que cualquier persona en el mundo con el recurso informático demandado se convierta en un proveedor.
Queda por ver si la creciente demanda de GPU para el entrenamiento de IA se traducirá en un uso de red a largo plazo en Akash. Akash ha proporcionado durante mucho tiempo un mercado para CPU, por ejemplo, ofreciendo servicios similares como alternativas centralizadas en 70-80% descuento. Sin embargo, los precios más bajos no se han traducido en una aceptación significativa. Los arrendamientos activos en la red se han aplanado, con un promedio de solo el 33 % de cómputo, el 16 % de la memoria y el 13 % del almacenamiento para el segundo de 2023. Si bien estas son métricas impresionantes para la adopción en cadena (como referencia, el proveedor líder de almacenamiento Filecoin tenía 12.6% de utilización de almacenamiento en el tercer trimestre de 2023), demuestra que la oferta sigue superando a la demanda de estos productos.
Ha pasado poco más de medio año desde que Akash lanzó su red GPU y todavía es demasiado pronto para evaluar con precisión la adopción a largo plazo. Un indicio de la demanda, la utilización promedio de GPU hasta la fecha es del 44% y superior a la de las CPUs, la memoria y el almacenamiento. Esto se debe principalmente a la demanda de las GPUs de mayor calidad (como las A100), con más de 90%alquilado.
El gasto diario en Akash también ha aumentado, casi duplicándose en relación con los pre-GPUs. Esto puede atribuirse parcialmente a un aumento en otros servicios utilizados, especialmente CPUs, pero es principalmente el resultado de un nuevo uso de GPU.
Las tarifas coinciden (o en algunos casos son incluso un poco más caras) que sus competidores centralizados como Lambda Cloud y Vast.ai. La increíble demanda de las GPUs de gama más alta (como H100 y A100s) significa que la mayoría de los propietarios de ese equipo tienen poco interés en enumerar en mercados donde se enfrentan a tarifas competitivas.
Si bien el interés inicial es prometedor, siguen existiendo barreras para la adopción (que se analizan más adelante). Las redes informáticas descentralizadas tendrán que hacer más para generar tanto la demanda como la oferta, y los equipos están experimentando con la mejor manera de atraer a nuevos usuarios. A principios de 2024, por ejemplo, Akash falleció Propuesta 240para aumentar las emisiones de AKT para los proveedores de GPU e incentivar más suministros, específicamente apuntando a GPUs de gama alta. Los equipos también están trabajando en implementar modelos de prueba de concepto para demostrar a los usuarios potenciales las capacidades en tiempo real de sus redes. Akash es adiestramientosu propio modelo fundamental y ya ha sido lanzado chatbot y generación de imágenesofertas que crean salidas utilizando GPUs Akash. De igual manera, io.net tiene desarrollado un modelo de difusión estable y se está desplegando nuevas funcionalidades de redque mejor imitan el rendimiento y la escala de los centros de datos GPU tradicionales.
Además de las plataformas informáticas generalizadas que pueden satisfacer las necesidades de IA, también está surgiendo un conjunto de proveedores especializados de GPU de IA centrados en el entrenamiento de modelos de aprendizaje automático. Gensyn, por ejemplo, es "coordinandoelectricity and hardware to build collective intelligence” with the view that, “If someone wants to train something, and someone is willing to train it, then that training should be allowed to happen.”
El protocolo tiene cuatro actores principales: remitentes, solucionadores, verificadores y denunciantes. Los remitentes envían tareas a la red con solicitudes de capacitación. Estas tareas incluyen el objetivo de entrenamiento, el modelo que se va a entrenar y los datos de entrenamiento. Como parte del proceso de envío, los remitentes pagan una tarifa por adelantado por el proceso estimado requerido del solucionador.
Una vez que se envían, las tareas se asignan a los solucionadores que realizan el entrenamiento real de los modelos. Luego, los solucionadores envían las tareas completadas a los verificadores, quienes son responsables de verificar el entrenamiento para asegurarse de que se haya realizado correctamente. Los denunciantes son responsables de garantizar que los verificadores se comporten honestamente. Para incentivar a los denunciantes a participar en la red, Gensyn planea proporcionar periódicamente pruebas incorrectas a propósito que recompensen a los denunciantes por descubrirlas.
Además de proporcionar cálculos para cargas de trabajo relacionadas con la IA, la propuesta de valor clave de Gensyn es su sistema de verificación, que todavía está en desarrollo. La verificación es necesaria para garantizar que los cálculos externos realizados por los proveedores de GPU se realicen correctamente (es decir, para garantizar que el modelo de un usuario se entrene de la manera que desean). Gensyn aborda este problema con un enfoque único, aprovechando métodos de verificación novedosos llamados "prueba probabilística de aprendizaje, protocolo de identificación basado en gráficos y juegos de incentivos estilo Truebit". Este es un modo de resolución optimista que permite a un verificador confirmar que un solucionador ha ejecutado correctamente un modelo sin tener que volverlo a ejecutar por completo, lo cual es un proceso costoso e ineficiente.
Además de su innovador método de verificación, Gensyn también reclamacionesser rentable en comparación con alternativas centralizadas y competidores cripto - proporcionando entrenamiento de ML hasta un 80% más barato que AWS mientras supera a proyectos similares como Truebit en pruebas.
Si estos resultados iniciales se pueden replicar a escala en toda una red descentralizada, está por verse. Gensyn quiere aprovechar el exceso de capacidad informática de proveedores como pequeños centros de datos, usuarios minoristas y, en el futuro, incluso dispositivos móviles más pequeños como teléfonos celulares. Sin embargo, como el propio equipo de Gensynadmitido, confiar en proveedores de cálculo heterogéneos introduce varios desafíos nuevos.
Para los proveedores centralizados, como Google Cloud Providers y Coreweave, la computación es costosa, mientras que la comunicación entre esa computación (ancho de banda y latencia) es barata. Estos sistemas están diseñados para permitir la comunicación entre hardware lo más rápido posible. Gensyn le da la vuelta a ese marco, reduciendo los costos de cómputo al permitir que cualquier persona en el mundo suministre GPU, pero aumentando los costos de comunicación, ya que la red ahora debe coordinar los trabajos de cómputo a través de hardware heterogéneo ubicado muy separado. Gensyn aún no se ha lanzado, pero es una prueba de concepto de lo que podría ser posible cuando se trata de crear protocolos de entrenamiento de aprendizaje automático descentralizados.
Las plataformas informáticas descentralizadas también están abriendo las posibilidades de diseño para los métodos de creación de inteligencia artificial. Bittensor es un protocolo de cómputo descentralizado construido sobre Substrate que es tratando de responderLa pregunta de, “¿Cómo podemos convertir la IA en un enfoque colaborativo?” Bittensor tiene como objetivo descentralizar y comercializar la generación de inteligencia artificial. Lanzado en 2021, el protocolo quiere aprovechar el poder de los modelos colaborativos de aprendizaje automático para iterar continuamente y producir una mejor inteligencia artificial.
Bittensor se inspira en Bitcoin, con un suministro de veintiún millones de su moneda nativa TAO y un ciclo de reducción a la mitad de cuatro años (la primera reducción a la mitad será en 2025). En lugar de utilizar Prueba de Trabajo para generar el nonce correcto y ganar una recompensa de bloque, Bittensor se basa en "Prueba de Inteligencia", lo que requiere que los mineros ejecuten modelos que produzcan salidas en respuesta a solicitudes de inferencia.
Bittensor originalmente dependía de un modelo de Mezcla de Expertos (MoE) para producir salidas. Cuando se envían las solicitudes de inferencia, en lugar de depender de un modelo generalizado, los modelos MoE transmiten la solicitud de inferencia a los modelos más precisos para un tipo de entrada dado. Piense en construir una casa donde contrata a una variedad de especialistas para diferentes aspectos del proceso de construcción (por ejemplo: arquitectos, ingenieros, pintores, trabajadores de la construcción, etc.). MoE aplica esto a los modelos de aprendizaje automático, intentando aprovechar las salidas de diferentes modelos según la entrada. Como el fundador de Bittensor, Ala Shaabanaexplicado, es como 'hablar con una habitación llena de personas inteligentes y obtener la mejor respuesta en lugar de hablar con una sola persona'. Debido a desafíoscon la garantía del enrutamiento adecuado, la sincronización de mensajes con el modelo correcto y la incentivación, este enfoque ha sido marginado hasta que el proyecto esté más desarrollado.
Hay dos actores principales en la red Bittensor: validadores y mineros. Los validadores tienen la tarea de enviar solicitudes de inferencia a los mineros, revisar sus salidas y clasificarlas según la calidad de sus respuestas. Para garantizar que sus clasificaciones sean fiables, a los validadores se les otorgan puntuaciones de “vtrust” basadas en qué tan bien sus clasificaciones se alinean con las clasificaciones de otros validadores. Cuanto mayor sea la puntuación de vtrust de un validador, más emisiones de TAO ganan. Esto está destinado a incentivar a los validadores a alcanzar un consenso sobre las clasificaciones de modelos con el tiempo, ya que cuanto más validadores lleguen a un acuerdo sobre las clasificaciones, mayor será la puntuación individual de vtrust.
Los mineros, también llamados servidores, son participantes de la red que ejecutan los modelos de aprendizaje automático reales. Los mineros compiten entre sí para proporcionar a los validadores las salidas más precisas para una consulta dada, ganando más emisiones de TAO cuanto más precisa sea su salida. Los mineros pueden generar esas salidas como quieran. Por ejemplo, es totalmente posible en un escenario futuro que un minero de Bittensor haya entrenado previamente modelos en Gensyn que utilizan para ganar emisiones de TAO.
Hoy en día, la mayoría de las interacciones ocurren directamente entre validadores y mineros. Los validadores envían insumos a los mineros y solicitan resultados (es decir, entrenan el modelo). Una vez que un validador ha consultado a los mineros en la red y ha recibido sus respuestas, luego clasifican a los mineros y envían sus clasificaciones a la red.
Esta interacción entre validadores (que confían en PoS) y mineros (que confían en Proof of Model, una forma de PoW) se llama Consenso Yuma. Busca incentivar a los mineros a producir los mejores resultados para ganar emisiones de TAO y a los validadores a clasificar con precisión las salidas de los mineros para ganar una puntuación de vtrust más alta e incrementar sus recompensas de TAO formando el mecanismo de consenso de la red.
Las interacciones en Bittensor consisten principalmente en validadores que envían solicitudes a los mineros y evalúan sus resultados. A medida que la calidad de los mineros que contribuyen aumenta y la inteligencia general de la red crece, Bittensor creará una capa de aplicación encima de su pila existente para que los desarrolladores puedan construir aplicaciones que consulten la red Bittensor.
En octubre de 2023, Bittensor completó un paso importante hacia la consecución de esto con el introducciónde subredes a través de su actualización Revolution. Las subredes son redes individuales en Bittensor que incentivan comportamientos específicos. Revolution abre la red a cualquier persona interesada en crear una subred. En los meses desde su lanzamiento, más de 32 subredes se han lanzado, incluidos los de solicitud de texto, raspado de datos, generación de imágenes y almacenamiento. A medida que las subredes maduran y están listas para el producto, los creadores de subredes también crearán integraciones de aplicaciones, lo que permitirá a los equipos crear aplicaciones que consulten una subred específica. Algunas aplicaciones (chatbot, generador de imágenes, bot de respuesta de Twitter, mercado de prediccionesexisten hoy, pero no hay incentivos formales para que los validadores acepten y transmitan esas consultas más allá de las subvenciones de la fundación Bittensor.
Para proporcionar una ilustración más clara, aquí hay un ejemplo de cómo Bittensor podría funcionar una vez que las aplicaciones estén integradas en la red.
Las subredes ganan TAO basado en su rendimiento evaluado por el red de raíces. La red raíz se encuentra en la parte superior de todas las subredes, actuando esencialmente como un tipo especial de subred, y es gestionada por los 64 validadores de subred más grandes por participación. Los validadores de la red raíz clasifican las subredes según su rendimiento y distribuyen las emisiones de TAO a las subredes periódicamente. De esta manera, las subredes individuales actúan como los mineros para la red raíz.
Bittensor todavía está experimentando dolores de crecimiento a medida que expande la funcionalidad del protocolo para incentivar la generación de inteligencia en múltiples subredes. Los mineros continúan ideando nuevas formas de atacar la red para ganar más recompensas TAO, por ejemplo mediantemodificandola salida de una ejecución de inferencia altamente calificada por su modelo y luego enviando múltiples variaciones. Las propuestas de gobernanza que afectan a toda la red solo pueden ser enviadas e implementadas por elTriunvirato, que está compuesto enteramente por partes interesadas de la Fundación Opentensor (importante tener en cuenta que las propuestas requieren la aprobación de BittensorSenadocompuesto por validadores de Bittensor antes de la implementación). Y la tokenómica del proyecto está en proceso de ser renovada para mejorar los incentivos para el uso de TAO en las subredes. El proyecto también está ganando rápidamente notoriedad por su enfoque único, con el CEO de uno de los sitios web de IA más populares HuggingFaceindicando que Bittensor debería agregar sus recursos al sitio web.
En un recientemente publicado piezapor un desarrollador principal llamado "Bittensor Paradigm", el equipo expone su visión para que Bittensor evolucione eventualmente a ser "agnóstico a lo que se está midiendo". En teoría, esto podría permitir que Bittensor desarrolle subredes que incentiven cualquier tipo de comportamiento, todo impulsado por TAO. Quedan considerables limitaciones prácticas, especialmente demostrar que estas redes son capaces de escalar para manejar un conjunto tan diverso de procesos y que los incentivos subyacentes impulsen el progreso que supere las ofertas centralizadas.
Las secciones anteriores ofrecen una descripción general de alto nivel de los diversos tipos de protocolos de computación de inteligencia artificial descentralizada que se están desarrollando. Si bien aún están en sus primeras etapas de desarrollo y adopción, sientan las bases de un ecosistema que eventualmente podría facilitar la creación de "bloques de construcción de IA", al igual que el concepto de "bloques de dinero" de DeFi. La composabilidad de las cadenas de bloques sin permisos abre la posibilidad para que cada protocolo se base en otros para proporcionar un ecosistema de inteligencia artificial descentralizada más completo.
Por ejemplo, aquí hay una forma en la que Akash, Gensyn y Bittensor podrían interactuar para responder a una solicitud de inferencia.
Para ser claro, esto es simplemente un ejemplo de lo que podría ser posible en el futuro, no una representación del ecosistema actual, las asociaciones existentes o los resultados probables. Las limitaciones en la interoperabilidad, así como otras consideraciones descritas a continuación, limitan considerablemente las posibilidades de integración hoy en día. Además, la fragmentación de la liquidez y la necesidad de utilizar múltiples tokens pueden ser perjudiciales para la experiencia del usuario, algo que ha sido señalópor los fundadores de Akash y Bittensor.
Además de la informática, se están implementando varios otros servicios de infraestructura descentralizada para apoyar el ecosistema emergente de IA de las criptomonedas. Enumerarlos a todos está más allá del alcance de este informe, pero algunos ejemplos interesantes e ilustrativos incluyen:
En conjunto, estos apuntan hacia las casi infinitas oportunidades para explorar modelos de mercado descentralizados que respalden modelos de IA, o la infraestructura circundante necesaria para desarrollarlos. Por ahora, estos proyectos están principalmente en la etapa de prueba de concepto y se necesita mucha más investigación y desarrollo para demostrar que pueden operar a la escala necesaria para proporcionar servicios de IA completos.
Las ofertas de cálculo descentralizado todavía están en las primeras etapas de desarrollo. Apenas están comenzando a ofrecer acceso a capacidades de cálculo de última generación capaces de entrenar los modelos de IA más potentes en producción. Para que ganen una participación de mercado significativa, deberán demostrar ventajas prácticas en comparación con las alternativas centralizadas. Los posibles desencadenantes para una adopción más amplia incluyen:
Los contratos inteligentes son un bloque de construcción fundamental de cualquier ecosistema de blockchain. Dadas un conjunto específico de condiciones, se ejecutan automáticamente y reducen o eliminan la necesidad de un tercero de confianza, lo que permite la creación de aplicaciones descentralizadas complejas como las vistas en DeFi. Sin embargo, tal como existen en su mayor parte hoy en día, los contratos inteligentes siguen estando limitados en su funcionalidad en el sentido de que se ejecutan en función de parámetros preestablecidos que deben actualizarse.
Por ejemplo, se implementa un contrato inteligente de protocolo de préstamo/alquiler con especificaciones sobre cuándo liquidar una posición basada en ciertas relaciones préstamo-valor. Si bien es útil en un entorno estático, en una situación dinámica donde el riesgo está en constante cambio, estos contratos inteligentes deben actualizarse continuamente para tener en cuenta los cambios en la tolerancia al riesgo, lo que crea desafíos para los contratos que no están regulados a través de procesos centralizados. Por ejemplo, las DAO, que dependen de procesos de gobernanza descentralizados, es posible que no puedan reaccionar lo suficientemente rápido para responder a los riesgos sistémicos.
Los contratos inteligentes que integran la IA (es decir, modelos de aprendizaje automático) son una forma posible de mejorar la funcionalidad, la seguridad y la eficiencia mientras se mejora la experiencia general del usuario. Estas integraciones también introducen riesgos adicionales, ya que es imposible asegurar que los modelos que sustentan estos contratos inteligentes no puedan ser explotados o tener en cuenta situaciones de cola larga (que son notoriamente difíciles de entrenar modelos dada laescasez de datos de entradapara ellos).
El aprendizaje automático requiere grandes cantidades de cómputo para ejecutar modelos complejos, lo que impide que los modelos de IA se ejecuten directamente dentro de contratos inteligentes debido a los altos costos. Un protocolo DeFi que proporcione a los usuarios acceso a un modelo de optimización del rendimiento, por ejemplo, tendría dificultades para ejecutar ese modelo en la cadena sin tener que pagar tarifas de gas prohibitivamente altas. Una solución es aumentar la potencia computacional de la cadena de bloques subyacente. Sin embargo, esto también aumenta las demandas sobre el conjunto de validadores de la cadena, lo que podría socavar las propiedades de descentralización. En cambio, algunos proyectos están explorando el uso de zkML para verificar los resultados de una manera confiable sin necesidad de computación intensiva en la cadena.
Uno comúnmenteUn ejemplo compartido que ilustra la utilidad de zkML es cuando un usuario necesita que otra persona ejecute datos a través de un modelo y también verifique que su contraparte realmente ejecutó el modelo correcto. Tal vez un desarrollador esté utilizando un proveedor de cómputo descentralizado para entrenar sus modelos y se preocupe de que el proveedor esté intentando reducir costos utilizando un modelo más barato con una diferencia en la salida prácticamente imperceptible. zkML permite al proveedor de cómputo ejecutar los datos a través de sus modelos y luego generar una prueba que pueda ser verificada en la cadena para demostrar que la salida del modelo para la entrada dada es correcta. En este caso, el proveedor del modelo tendría la ventaja añadida de poder ofrecer sus modelos sin tener que revelar los pesos subyacentes que producen la salida.
También se podría hacer lo contrario. Si un usuario desea ejecutar un modelo utilizando sus datos pero no quiere que el proyecto que proporciona el modelo tenga acceso a sus datos debido a preocupaciones de privacidad (es decir, en el caso de un examen médico o información comercial propietaria), entonces el usuario podría ejecutar el modelo en sus datos sin compartirlo y luego verificar que ejecutaron el modelo correcto con una prueba. Estas posibilidades expanden considerablemente el espacio de diseño para la integración de la inteligencia artificial y la funcionalidad del contrato inteligente al abordar restricciones de cálculo prohibitivas.
Dado el estado incipiente del espacio zkML, el desarrollo se centra principalmente en construir la infraestructura y las herramientas necesarias para que los equipos conviertan sus modelos y salidas en pruebas que puedan ser verificadas en cadena. Estos productos abstraen la parte de conocimiento cero del desarrollo tanto como sea posible.
EZKL y Gizason dos proyectos que construyen esta herramienta proporcionando pruebas verificables de la ejecución del modelo de aprendizaje automático. Ambos ayudan a los equipos a construir modelos de aprendizaje automático para garantizar que esos modelos puedan ser ejecutados de manera que los resultados puedan ser verificados sin confianza en la cadena. Ambos proyectos utilizan el Intercambio de Redes Neuronales Abiertas (ONNX) para transformar modelos de aprendizaje automático escritos en lenguajes comunes como TensorFlow y Pytorch en un formato estándar. Luego producen versiones de esos modelos que también producen pruebas zk cuando se ejecutan. EZKL es de código abierto y produce zk-SNARKS mientras que Giza es de código cerrado y produce zk-STARKS. Ambos proyectos actualmente solo son compatibles con EVM.
EZKL ha demostrado un progreso significativo en los últimos meses en la mejora de su solución zkML, principalmente centrada enreducción de costos, mejorando la seguridad, y acelerando la generación de pruebas. En noviembre de 2023, por ejemplo, EZKL integró una nueva biblioteca de GPU de código abierto que reduce el tiempo total de prueba en un 35% y en enero de EZKL anunciadoLilith, una solución de software para integrar clústeres de cálculo de alto rendimiento y orquestar trabajos concurrentes al usar el sistema probatorio EZKL. Giza es único en que, además de proporcionar herramientas para crear modelos de aprendizaje automático verificables, también planean implementar un equivalente de web3.Hugging Face, abriendo un mercado de usuarios para la colaboración zkML y el intercambio de modelos, así como integrando eventualmente ofertas de cómputo descentralizado. En enero, EZKL lanzó un evaluación de referenciacomparando el rendimiento de EZKL, Giza y RiscZero (discutido a continuación). EZKL demostró tiempos de prueba más rápidos y uso de memoria.
Modulus Labs también está desarrollando una nueva técnica a prueba de zk personalizada para modelos de IA. Modulus publicó un artículo llamado El Costo de la Inteligencia(insinuando los costos increíblemente altos de ejecutar modelos de IA en cadena), que comparó los sistemas de prueba zk existentes en ese momento para identificar capacidades y cuellos de botella para mejorar las pruebas zk de modelos de IA. Publicado en enero de 2023, el documento demuestra que las ofertas existentes son simplemente demasiado caras e ineficientes para permitir aplicaciones de IA a gran escala. Basándose en su investigación inicial, en noviembre Modulus@ModulusLabs/introducing-modulus-bring-ai-on-chain-d75dcb82c5e3">introdujo Remainder, un probador especializado de conocimiento cero construido específicamente para reducir costos y tiempo de prueba para modelos de IA con el objetivo de hacer económicamente factible que los proyectos integren modelos en sus contratos inteligentes a escala. Su trabajo es de código cerrado y, por lo tanto, no se pudo comparar con las soluciones anteriores, pero recientemente fue mencionado en el trabajo de Vitalik.publicación de blogen cripto y AI.
El desarrollo de herramientas e infraestructura es fundamental para el crecimiento futuro del espacio zkML porque reduce significativamente la fricción para los equipos que necesitan implementar circuitos zk necesarios para ejecutar cálculos verificables fuera de la cadena. La creación de interfaces seguras que permitan a los constructores no nativos de cripto que trabajan en aprendizaje automático llevar sus modelos a la cadena permitirá una mayor experimentación de aplicaciones con casos de uso verdaderamente novedosos. Las herramientas también abordan un obstáculo importante para una adopción más amplia de zkML, la falta de desarrolladores conocedores e interesados en trabajar en la intersección de conocimiento cero, aprendizaje automático y criptografía.
Soluciones adicionales en desarrollo, conocidas como "coprocesadores," incluyen RiscZero,Axioma, y Ritual. El término coprocesador es principalmente semántico: estas redes cumplen muchos roles diferentes, incluida la verificación de cálculos fuera de la cadena en la cadena. Al igual que con EZKL, Giza y Modulus, su objetivo es abstraer completamente el proceso de generación de pruebas de conocimiento cero, creando máquinas virtuales de conocimiento cero capaces de ejecutar programas fuera de la cadena y generar pruebas para su verificación en la cadena. RiscZero y Axiom pueden serviciomodelos de IA simples, ya que se supone que son coprocesadores más generales, mientras que Ritual está diseñado específicamente para su uso con modelos de IA.
Infernetes la primera instanciación deRitual e incluye un SDK de Infernet que permite a los desarrolladores enviar solicitudes de inferencia a la red y recibir a cambio una salida y una prueba (opcionalmente). Un Nodo de Infernet recibe estas solicitudes y maneja la computación fuera de la cadena antes de devolver una salida. Por ejemplo, un DAO podría crear un proceso para garantizar que todas las nuevas propuestas de gobernanza cumplan ciertas condiciones previas a ser presentadas. Cada vez que se presenta una nueva propuesta, el contrato de gobernanza activa una solicitud de inferencia a través de Infernet llamando a un modelo de IA de gobernanza específico de DAO. El modelo revisa la propuesta para asegurarse de que se hayan presentado todos los criterios necesarios y devuelve la salida y la prueba, ya sea aprobando o denegando la presentación de la propuesta.
Durante el próximo año, el equipo de Ritual planea implementar características adicionales que formen una capa de infraestructura base llamada Ritual Superchain. Muchos de los proyectos discutidos anteriormente podrían integrarse en Ritual como proveedores de servicios. Ya, el equipo de Ritual se ha integrado con EZKL para la generación de pruebas y probablemente pronto agregará funcionalidades de otros proveedores líderes. Los nodos de Infernet en Ritual también podrían utilizar GPUs de Akash o io.net y consultar modelos entrenados en subredes de Bittensor. Su objetivo final es ser el proveedor por excelencia de infraestructura abierta de IA, capaz de prestar servicios de aprendizaje automático y otras tareas relacionadas con la IA desde cualquier red en cualquier carga de trabajo.
zkML ayuda conciliarla contradicción entre las cadenas de bloques y la IA, donde las primeras están inherentemente limitadas en recursos y la última requiere grandes cantidades de cálculo y datos. Como uno de los fundadores de Gizaponerlo, “Los casos de uso son tan abundantes… es un poco como preguntar en los primeros días de Ethereum cuáles son los casos de uso de los contratos inteligentes… lo que estamos haciendo es simplemente expandir los casos de uso de los contratos inteligentes”. Como se ha destacado anteriormente, sin embargo, el desarrollo hoy en día se está llevando a cabo principalmente a nivel de herramientas e infraestructura. Las aplicaciones aún están en fase exploratoria, con equipos desafiados a demostrar que el valor generado al implementar modelos utilizando zkML supera la complejidad y los costos de hacerlo.
Algunas aplicaciones hoy incluyen:
zkML todavía está en la etapa experimental con la mayoría de los proyectos enfocados en desarrollar infraestructuras primitivas y pruebas de concepto. Los desafíos actuales incluyen costos computacionales, limitaciones de memoria, complejidad del modelo, herramientas e infraestructuras limitadas y talento de desarrolladores. En pocas palabras, hay considerablemente más trabajo por hacer antes de que zkML pueda implementarse a la escala necesaria para productos de consumo.
A medida que el campo madura, sin embargo, y estas limitaciones son abordadas, zkML se convertirá en un componente crítico de la integración de IA y cripto. En su núcleo, zkML promete la capacidad de llevar cálculos fuera de la cadena de cualquier tamaño a la cadena, manteniendo las mismas o casi las mismas garantías de seguridad como si el cálculo se hubiera ejecutado en la cadena. Hasta que esa visión se haga realidad, sin embargo, los primeros usuarios de la tecnología continuarán teniendo que equilibrar los compromisos entre la privacidad y seguridad de zkML y la eficiencia de las alternativas.
Una de las integraciones más emocionantes de la IA y la cripto es la experimentación en curso con Agentes de IA. Los Agentes son bots autónomos capaces de recibir, interpretar y ejecutar tareas utilizando un modelo de IA. Esto podría ser desde tener un asistente personal siempre disponible que está ajustado a tus preferencias hasta contratar un agente financiero que gestiona y ajusta tu cartera según tus preferencias de riesgo.
Los agentes y la cripto encajan bien juntos debido a la infraestructura de pagos sin permiso y sin confianza que proporciona la cripto. Una vez capacitados, los agentes pueden recibir una billetera para que puedan realizar transacciones con contratos inteligentes por su cuenta. Los agentes simples de hoy, por ejemplo, pueden rastrear Internet en busca de información y luego realizar operaciones en mercados de predicción basados en un modelo.
Morpheuses uno de los proyectos de agente de código abierto más nuevos que llegan al mercado en Ethereum y Arbitrum en 2024. Su libro blanco fue publicado de forma anónima en septiembre de 2023, proporcionando la base para que se forme una comunidad y se construya en torno a (incluidas figuras destacadas comoErik Vorhees). El libro blanco incluye un descargable Protocolo de Agente Inteligente, que es un LLM de código abierto que se puede ejecutar localmente, gestionado por la billetera del usuario e interactuar con contratos inteligentes. Utiliza un Rango de Contrato Inteligentepara ayudar al agente a determinar qué contratos inteligentes son seguros para interactuar, según criterios como el número de transacciones procesadas.
El libro blanco también proporciona un marco para desarrollar la Red Morpheus, como las estructuras de incentivos y la infraestructura necesaria para hacer operativo el Protocolo de Agente Inteligente. Esto incluye incentivar a los colaboradores a desarrollar interfaces para interactuar con los agentes, APIs para que los desarrolladores construyan aplicaciones que puedan conectarse a los agentes para que puedan interactuar entre sí, y soluciones en la nube para permitir a los usuarios acceder a la computación y almacenamiento necesarios para ejecutar un agente en un dispositivo periférico. La financiación inicial para el proyecto se lanzó a principios de febrero con la expectativa de que el protocolo completo se lance en el segundo trimestre de 2024.
Red de Infraestructura Autónoma Descentralizada (DAIN)es un nuevo protocolo de infraestructura de agentes que desarrolla una economía de agente a agente en Solana. DAIN tiene como objetivo hacer que los agentes de diferentes empresas puedan interactuar entre sí de forma transparente a través de una API universal, abriendo considerablemente el espacio de diseño para agentes de IA con un enfoque en la implementación de agentes capaces de interactuar tanto con productos web2 como web3. En enero, DAIN anunció su primero asociacióncon Asset Shield que permite a los usuarios agregar “firmantes agentes” a su multisig que son capaces de interpretar transacciones y aprobar/denegar basándose en reglas establecidas por el usuario.
Fetch.AIfue uno de los primeros protocolos de Agentes de IA implementados y ha desarrollado un ecosistema para construir, implementar y utilizar Agentes en cadena utilizando su token FET y Fetch.AIwallet. El protocolo proporciona un conjunto completo de herramientas y aplicaciones para usar Agentes, incluida la funcionalidad en la billetera para interactuar y ordenar agentes.
Autonolas, cuyos fundadores incluyen a un miembro anterior del equipo de Fetch, es un mercado abierto para la creación y uso de agentes de IA descentralizados. Autonolas también proporciona un conjunto de herramientas para que los desarrolladores construyan agentes de IA que se alojen fuera de la cadena y puedan conectarse a múltiples blockchains, incluidos Polygon, Ethereum, Gnosis Chain y Solana. Actualmente tienen un par de pruebas de concepto de agentes activos productosincluyendo su uso en mercados de predicción y gobernanza de DAO.
SingularityNetestá construyendo un mercado descentralizado para agentes de IA donde las personas pueden implementar agentes de IA estrechamente enfocados que pueden ser contratados por otras personas o agentes para ejecutar tareas complejas. Otros, como AlteredStateMachine, están desarrollando integraciones de Agentes de IA con NFT. Los usuarios crean NFT con atributos aleatorios que les otorgan fortalezas y debilidades para diferentes tareas. Estos agentes pueden ser entrenados para mejorar ciertos atributos para usos como juegos, DeFi, o como asistente virtual y ser intercambiados con otros usuarios.
En conjunto, estos proyectos vislumbran un futuro ecosistema de agentes capaces de trabajar juntos no solo para ejecutar tareas, sino para ayudar a construir una inteligencia artificial general. Los agentes verdaderamente sofisticados tendrán la capacidad de llevar a cabo cualquier tarea de forma autónoma. Por ejemplo, en lugar de tener que asegurarse de que un Agente ya se ha integrado con una API externa (como un sitio web de reservas de viajes) antes de usarlo, los agentes completamente autónomos tendrán la capacidad de averiguar cómo contratar a otro agente para integrar la API y luego ejecutar la tarea. Desde la perspectiva del usuario, no habrá necesidad de verificar si un agente puede llevar a cabo una tarea porque el agente puede determinarlo por sí mismo.
En julio de 2023, Lightning Labsimplementó una implementación de prueba de concepto para usar Agentes en la Red Lightning llamada el Suite de Bitcoin LangChain. El producto es especialmente interesante ya que pretende abordar un problema creciente en el mundo web 2 -gatedycaroClaves API para aplicaciones web.
LangChain resuelve esto al proporcionar a los desarrolladores un conjunto de herramientas que permiten a los agentes comprar, vender y mantener Bitcoin, así como consultar claves de API y enviar micro pagos. Mientras que en los raíles de pago tradicionales los pequeños micro pagos son prohibitivos debido a las tarifas, en la red Lightning los agentes pueden enviar pagos diarios ilimitados con tarifas mínimas. Cuando se combina con el marco de API con medidor de pagos L402 de LangChain, esto podría permitir a las empresas ajustar las tarifas de acceso a su API a medida que aumenta y disminuye el uso, en lugar de establecer un estándar único prohibitivo de costo.
En un futuro en el que la actividad on-chain esté dominada por agentes que interactúan con agentes, será necesario algo así para garantizar que los agentes puedan interactuar entre sí de una manera que no tenga un coste prohibitivo. Este es uno de los primeros ejemplos de cómo el uso de agentes en vías de pago rentables y sin permiso abre las posibilidades de nuevos mercados e interacciones económicas.
El espacio de los Agentes todavía está en pañales. Los proyectos apenas están empezando a implementar agentes funcionales que puedan manejar tareas simples utilizando su infraestructura, la cual a menudo solo es accesible para desarrolladores y usuarios sofisticados. Con el tiempo, sin embargo, uno de los mayores impactos que tendrán los agentes de IA en la cripto será la mejora de la experiencia de usuario en todas las verticales. Las transacciones comenzarán a pasar de hacer clic a basarse en texto, con los usuarios teniendo la capacidad de interactuar con agentes on-chain a través de LLMs. Equipos como Cartera Dawnestán introduciendo billeteras de chat-bot para que los usuarios interactúen en la cadena.
Además, no está claro cómo podrían operar los agentes en la web 2 donde los raíles financieros dependen de instituciones bancarias reguladas que no operan las 24 horas del día y no pueden realizar transacciones transfronterizas sin problemas. As Lyn AldenComo se ha destacado, las vías cripto son especialmente atractivas en comparación con las tarjetas de crédito debido a la falta de contracargos y la capacidad de procesar microtransacciones. Sin embargo, si los agentes se convierten en un medio de transacción más común, es probable que los proveedores de pagos y aplicaciones existentes se muevan rápidamente para implementar la infraestructura requerida para que operen en las vías financieras existentes, mitigando algunos de los beneficios de usar cripto.
Por ahora, es probable que los agentes estén confinados a transacciones cripto a cripto deterministas donde se garantiza una salida dada para una entrada dada. Ambos modelos, que dictan la capacidad de estos agentes para descubrir cómo ejecutar tareas complejas, y las herramientas, que amplían el alcance de lo que pueden lograr, requieren un mayor desarrollo. Para que los agentes cripto sean útiles fuera de los casos de uso de cripto novedosos en cadena, se requerirá una integración más amplia y la aceptación de la cripto como forma de pago, así como claridad regulatoria. Sin embargo, a medida que estos componentes se desarrollen, los agentes están preparados para convertirse en uno de los mayores consumidores de cómputo descentralizado y soluciones zkML discutidas anteriormente, actuando de manera autónoma no determinista para recibir y resolver cualquier tarea.
La inteligencia artificial introduce en la cripto las mismas innovaciones que ya vemos desarrollándose en la web2, mejorando todo, desde el desarrollo de infraestructuras hasta la experiencia del usuario y la accesibilidad. Sin embargo, los proyectos todavía están en una etapa temprana de su evolución y la integración a corto plazo de la cripto y la inteligencia artificial estará principalmente dominada por integraciones fuera de la cadena.
Productos como Copilotovoluntad "10x"eficiencia del desarrollador, concapa 1syDeFiaplicaciones que ya están implementando plataformas de desarrollo asistidas por IA en colaboración con grandes corporaciones como Microsoft. Empresas como Cub3.aiyMáquina de pruebaestán desarrollando integraciones de IA para auditoría de contratos inteligentes y monitoreo de amenazas en tiempo real para mejorar la seguridad on-chain. Y los chatbots de LLM se están entrenando utilizando datos on-chain, documentos de protocolo y aplicaciones para proporcionar a los usuarios una mayor accesibilidad y UX.
Para integraciones más avanzadas que realmente aprovechen las tecnologías subyacentes de la cripto, el desafío sigue siendo demostrar que implementar soluciones de IA en cadena es tanto técnicamente posible como económicamente viable a gran escala. Los avances en computación descentralizada, zkML y Agentes de IA apuntan hacia verticales prometedoras que están sentando las bases para un futuro donde la cripto y la IA están profundamente interconectadas.
La llegada de blockchains públicos es uno de los avances más profundos en la historia de la ciencia informática. Pero el desarrollo de la inteligencia artificial tendrá, de hecho ya está teniendo, un impacto profundo en nuestro mundo. Si la tecnología blockchain proporciona una nueva plantilla para liquidación de transacciones, almacenamiento de datos y diseño de sistemas, la inteligencia artificial es una revolución en computación, análisis y entrega de contenido. La innovación en las dos industrias está desbloqueando nuevos casos de uso que podrían acelerar la adopción de ambas en los próximos años. Este informe explora las integraciones en curso de cripto y AI con un enfoque en casos de uso novedosos que intentan cerrar la brecha entre ambos, aprovechando el poder de ambos. Específicamente, este informe examina proyectos que desarrollan protocolos de cálculo descentralizado, infraestructura de aprendizaje automático de conocimiento cero (zkML) y agentes de AI.
La cripto proporciona a la IA una capa de liquidación permisionada, sin confianza y componible. Esto desbloquea casos de uso como hacer que el hardware sea más accesible a través de sistemas informáticos descentralizados, construir agentes de IA que pueden ejecutar tareas complejas que requieren el intercambio de valor, y desarrollar soluciones de identidad y procedencia para combatir ataques de Sybil y deep fakes. La IA aporta a la cripto muchos de los mismos beneficios que vemos en la Web 2. Esto incluye una mejor experiencia de usuario (UX) tanto para usuarios como para desarrolladores gracias a modelos de lenguaje grandes (es decir, versiones especialmente entrenadas de ChatGPT y Copilot) así como el potencial para mejorar significativamente la funcionalidad y automatización de contratos inteligentes. Las cadenas de bloques son los entornos transparentes y ricos en datos que necesita la IA. Pero las cadenas de bloques también tienen una capacidad computacional limitada, un obstáculo importante para la integración directa de modelos de IA.
La fuerza impulsora detrás de la experimentación continua y la adopción eventual en la intersección de la cripto y la IA es la misma que impulsa gran parte de los casos de uso más prometedores de la cripto: acceso a una capa de coordinación sin permiso y sin confianza que facilita mejor la transferencia de valor. Dado el enorme potencial, los participantes en el espacio necesitan entender las formas fundamentales en que se intersectan las dos tecnologías.
La Inteligencia Artificial es el uso de la computación y las máquinas para imitar el razonamiento y las habilidades de resolución de problemas de los seres humanos.
Las Redes Neuronales son un método de entrenamiento para modelos de IA. Ejecutan entradas a través de capas discretas de algoritmos, refinándolas hasta que se produce la salida deseada. Las redes neuronales están compuestas por ecuaciones que tienen pesos que pueden modificarse para cambiar la salida. Pueden requerir cantidades increíbles de datos y cálculos para ser entrenadas para que sus salidas sean precisas. Es una de las formas más comunes en las que se desarrollan modelos de IA (ChatGPT utiliza un proceso de red neuronal dependiente de)transformers).
El entrenamiento es el proceso mediante el cual se desarrollan redes neuronales y otros modelos de IA. Requiere grandes cantidades de datos para entrenar modelos que interpreten correctamente las entradas y produzcan salidas precisas. Durante el proceso de entrenamiento, los pesos de la ecuación del modelo se modifican continuamente hasta que se produce una salida satisfactoria. El entrenamiento puede ser muy caro. ChatGPT, por ejemplo, utilizadecenas de miles de sus propias GPUs para procesar sus datos. Los equipos con menos recursos a menudo dependen de proveedores de cómputo dedicados como Amazon Web Services, Azure y Google Cloud Providers.
La inferencia es el uso real de un modelo de IA para obtener una salida o resultado (por ejemplo, utilizar ChatGPT para crear un esquema para un trabajo sobre la intersección de la cripto y la IA). Las inferencias se utilizan a lo largo del proceso de entrenamiento y en el producto final. Pueden ser costosas de ejecutar, incluso después de que se complete el entrenamiento, debido a los costos computacionales, pero son menos intensivas computacionalmente que el entrenamiento.
Las Pruebas de Conocimiento Cero (ZKP) permiten la verificación de una afirmación sin revelar la información subyacente. Esto es útil en cripto por dos razones principales: 1) privacidad y 2) escalabilidad. Para la privacidad, esto permite a los usuarios realizar transacciones sin revelar información sensible como cuánto ETH hay en su billetera. Para la escalabilidad, permite que la computación fuera de la cadena se demuestre en la cadena más rápidamente que teniendo que reejecutar la computación. Esto permite que las cadenas de bloques y las aplicaciones ejecuten computaciones de forma económica fuera de la cadena y luego las verifiquen en la cadena. Para obtener más información sobre el conocimiento cero y su papel en la Máquina Virtual Ethereum, consulte el informe de Christine Kim.zkEVMs: El Futuro de la Escalabilidad de Ethereum.
Los proyectos en la intersección de la inteligencia artificial y la cripto todavía están desarrollando la infraestructura subyacente necesaria para respaldar las interacciones de inteligencia artificial en cadena a gran escala.
Los mercados de computación descentralizada están surgiendo para suministrar grandes cantidades de hardware físico, principalmente en forma de unidades de procesamiento gráfico (GPU), necesarias para el entrenamiento y la inferencia de modelos de IA. Estos mercados de dos caras conectan a quienes arriendan y buscan arrendar cómputo, facilitando la transferencia de valor y la verificación del cómputo. Dentro de la computación descentralizada están surgiendo varias subcategorías que brindan funcionalidades adicionales. Además de los mercados de dos caras, este informe examinará a los proveedores de entrenamiento de aprendizaje automático que se especializan en el servicio de entrenamiento verificable y ajustes finos, así como proyectos que trabajan para conectar cómputo y generación de modelos para lograr inteligencia artificial general, también conocida frecuentemente como redes de incentivos de inteligencia.
zkML es un área emergente de enfoque para proyectos que desean proporcionar salidas de modelos verificables en cadena de manera rentable y oportuna. Estos proyectos principalmente permiten que las aplicaciones manejen solicitudes de cálculo pesadas fuera de la cadena, y luego publiquen en cadena una salida verificable que demuestre que la carga de trabajo fuera de la cadena está completa y es precisa. zkML es tanto costoso como consumidor de tiempo en su implementación actual, pero cada vez se utiliza más como solución. Esto es evidente en el creciente número de integraciones entre proveedores de zkML y aplicaciones de DeFi/Juegos que desean aprovechar modelos de IA.
La amplia oferta de cálculo y la capacidad de verificar ese cálculo en cadena abren la puerta a agentes de IA en cadena. Los agentes son modelos entrenados capaces de ejecutar solicitudes en nombre de un usuario. Los agentes ofrecen la oportunidad de mejorar significativamente la experiencia en cadena, permitiendo a los usuarios ejecutar transacciones complejas simplemente hablando con un chatbot. Sin embargo, tal como existen hoy en día, los proyectos de Agentes siguen centrándose en desarrollar la infraestructura y las herramientas para una implementación fácil y rápida.
La IA requiere grandes cantidades de cálculo, tanto para entrenar modelos como para ejecutar inferencias. Durante la última década, a medida que los modelos se han vuelto más sofisticados, los requisitos de cálculo han crecido exponencialmente. OpenAI, por ejemplo,encontradoque entre 2012 y 2018, los requisitos de computación para sus modelos pasaron de duplicarse cada dos años a cada tres meses y medio. Esto ha llevado a un aumento en la demanda de GPUs con algunos mineros de cripto inclusoreutilizando sus GPUspara proporcionar servicios de computación en la nube (@jeff.washington/2024-02-06-solana-mainnet-beta-outage-report-619bd75b3ce0">más sobre esto en nuestro informe anual de minería de Bitcoin). A medida que aumenta la competencia para acceder a la computación y los costos aumentan, varios proyectos están utilizando cripto para proporcionar soluciones de computación descentralizadas. Ofrecen computación bajo demanda a precios competitivos para que los equipos puedan entrenar y ejecutar modelos de manera asequible. El compromiso, en algunos casos, puede ser el rendimiento y la seguridad.
GPU de última generación, como los producidospor Nvidia, tienen una gran demanda. En septiembre, Tetheradquiridouna participación en Northern Data, un minero de Bitcoin alemán, supuestamente pagando $420 millones para adquirir 10,000 GPUs H100 (una de las GPUs más avanzadas para entrenamiento de IA).EsperarLos tiempos para el hardware de mejor calidad pueden ser de al menos seis meses, y en muchos casos más largos. Para empeorar la situación, a menudo se requiere que las empresas firmen contratos a largo plazo por cantidades de cómputo que ni siquiera podrían usar. Esto puede dar lugar a situaciones en las que hay cómputo disponible, pero no está disponible en el mercado. Los sistemas de cómputo descentralizado ayudan a abordar estas ineficiencias del mercado, creando un mercado secundario donde los propietarios de cómputo pueden subarrendar su capacidad excedente en cualquier momento, desbloqueando nueva oferta.
Además de precios competitivos y accesibilidad, la propuesta de valor clave de la informática descentralizada es la resistencia a la censura. El desarrollo de inteligencia artificial de vanguardia está siendo cada vez más dominado por grandes empresas tecnológicas con un acceso sin precedentes a la informática y los datos. El primer tema clave destacado en el Informe del Índice de IAEl informe anual de 2023 es que la industria está superando cada vez más a la academia en el desarrollo de modelos de IA, centralizando el control en manos de unos pocos líderes tecnológicos. Esto ha suscitado preocupaciones sobre su capacidad para tener una influencia desmedida en la dictación de las normas y valores que sustentan los modelos de IA, especialmente tras la regulación empujapor estas mismas empresas tecnológicas para frenar el desarrollo de la IA fuera de su control.
Varios modelos de computación descentralizada han surgido en los últimos años, cada uno con su propio enfoque y compensaciones.
Proyectos como Akash, io.net, iExec, Cudos y muchos otros son aplicaciones de cómputo descentralizado que ofrecen acceso, o pronto ofrecerán acceso, a cómputo especializado para entrenamiento e inferencias de IA además de datos y soluciones de cómputo generalizado.
Akash es actualmente la única plataforma de "supercloud" completamente de código abierto. Es una red de prueba de participación que utiliza Cosmos SDK. AKT, el token nativo de Akash, se utiliza para asegurar la red, como forma de pago y para incentivar la participación. Akash lanzó su primera mainnet en 2020 centrada en proporcionar un mercado de computación en la nube sin permisos, que inicialmente ofrece servicios de arrendamiento de almacenamiento y CPU. En junio de 2023, Akash Lanzado una nueva red de prueba centrada en las GPU y en septiembre lanzadosu GPU mainnet permite a los usuarios arrendar GPUs para entrenamiento de IA e inferencias.
Hay dos actores principales en el ecosistema de Akash: Inquilinos y Proveedores. Los inquilinos son usuarios de la red de Akash que desean comprar recursos computacionales. Los Proveedores son los suministradores de cómputo. Para emparejar inquilinos y proveedores, Akash confía en un proceso de subasta inversa. Los inquilinos envían sus requisitos de cómputo, dentro de los cuales pueden especificar ciertas condiciones como la ubicación de los servidores o el tipo de hardware que realiza el cómputo, y la cantidad que están dispuestos a pagar. Los Proveedores luego envían su precio de oferta, siendo la oferta más baja la que recibe la tarea.
Los validadores Akash mantienen la integridad de la red. El conjunto de validadores está actualmente limitado a 100 con planes de aumentar gradualmente con el tiempo. Cualquiera puede convertirse en validador apostando más AKT que el validador actual con la menor cantidad de AKT apostado. Los titulares de AKT también pueden delegar su AKT a los validadores. Las tarifas de transacción y las recompensas por bloque para la red se distribuyen en AKT. Además, por cada arrendamiento, la red Akash gana una "tarifa de toma" a una tasa determinada por la comunidad que se distribuye a los titulares de AKT.
Los mercados informáticos descentralizados tienen como objetivo llenar las ineficiencias en el mercado informático existente. Las restricciones de suministro están llevando a las empresas a acaparar recursos informáticos más allá de lo que puedan necesitar, y el suministro está aún más restringido debido a la estructura de los contratos con proveedores de nube que obligan a los clientes a compromisos a largo plazo, aunque el acceso continuado pueda no ser necesario. Las plataformas informáticas descentralizadas desbloquean nuevos suministros, permitiendo que cualquier persona en el mundo con el recurso informático demandado se convierta en un proveedor.
Queda por ver si la creciente demanda de GPU para el entrenamiento de IA se traducirá en un uso de red a largo plazo en Akash. Akash ha proporcionado durante mucho tiempo un mercado para CPU, por ejemplo, ofreciendo servicios similares como alternativas centralizadas en 70-80% descuento. Sin embargo, los precios más bajos no se han traducido en una aceptación significativa. Los arrendamientos activos en la red se han aplanado, con un promedio de solo el 33 % de cómputo, el 16 % de la memoria y el 13 % del almacenamiento para el segundo de 2023. Si bien estas son métricas impresionantes para la adopción en cadena (como referencia, el proveedor líder de almacenamiento Filecoin tenía 12.6% de utilización de almacenamiento en el tercer trimestre de 2023), demuestra que la oferta sigue superando a la demanda de estos productos.
Ha pasado poco más de medio año desde que Akash lanzó su red GPU y todavía es demasiado pronto para evaluar con precisión la adopción a largo plazo. Un indicio de la demanda, la utilización promedio de GPU hasta la fecha es del 44% y superior a la de las CPUs, la memoria y el almacenamiento. Esto se debe principalmente a la demanda de las GPUs de mayor calidad (como las A100), con más de 90%alquilado.
El gasto diario en Akash también ha aumentado, casi duplicándose en relación con los pre-GPUs. Esto puede atribuirse parcialmente a un aumento en otros servicios utilizados, especialmente CPUs, pero es principalmente el resultado de un nuevo uso de GPU.
Las tarifas coinciden (o en algunos casos son incluso un poco más caras) que sus competidores centralizados como Lambda Cloud y Vast.ai. La increíble demanda de las GPUs de gama más alta (como H100 y A100s) significa que la mayoría de los propietarios de ese equipo tienen poco interés en enumerar en mercados donde se enfrentan a tarifas competitivas.
Si bien el interés inicial es prometedor, siguen existiendo barreras para la adopción (que se analizan más adelante). Las redes informáticas descentralizadas tendrán que hacer más para generar tanto la demanda como la oferta, y los equipos están experimentando con la mejor manera de atraer a nuevos usuarios. A principios de 2024, por ejemplo, Akash falleció Propuesta 240para aumentar las emisiones de AKT para los proveedores de GPU e incentivar más suministros, específicamente apuntando a GPUs de gama alta. Los equipos también están trabajando en implementar modelos de prueba de concepto para demostrar a los usuarios potenciales las capacidades en tiempo real de sus redes. Akash es adiestramientosu propio modelo fundamental y ya ha sido lanzado chatbot y generación de imágenesofertas que crean salidas utilizando GPUs Akash. De igual manera, io.net tiene desarrollado un modelo de difusión estable y se está desplegando nuevas funcionalidades de redque mejor imitan el rendimiento y la escala de los centros de datos GPU tradicionales.
Además de las plataformas informáticas generalizadas que pueden satisfacer las necesidades de IA, también está surgiendo un conjunto de proveedores especializados de GPU de IA centrados en el entrenamiento de modelos de aprendizaje automático. Gensyn, por ejemplo, es "coordinandoelectricity and hardware to build collective intelligence” with the view that, “If someone wants to train something, and someone is willing to train it, then that training should be allowed to happen.”
El protocolo tiene cuatro actores principales: remitentes, solucionadores, verificadores y denunciantes. Los remitentes envían tareas a la red con solicitudes de capacitación. Estas tareas incluyen el objetivo de entrenamiento, el modelo que se va a entrenar y los datos de entrenamiento. Como parte del proceso de envío, los remitentes pagan una tarifa por adelantado por el proceso estimado requerido del solucionador.
Una vez que se envían, las tareas se asignan a los solucionadores que realizan el entrenamiento real de los modelos. Luego, los solucionadores envían las tareas completadas a los verificadores, quienes son responsables de verificar el entrenamiento para asegurarse de que se haya realizado correctamente. Los denunciantes son responsables de garantizar que los verificadores se comporten honestamente. Para incentivar a los denunciantes a participar en la red, Gensyn planea proporcionar periódicamente pruebas incorrectas a propósito que recompensen a los denunciantes por descubrirlas.
Además de proporcionar cálculos para cargas de trabajo relacionadas con la IA, la propuesta de valor clave de Gensyn es su sistema de verificación, que todavía está en desarrollo. La verificación es necesaria para garantizar que los cálculos externos realizados por los proveedores de GPU se realicen correctamente (es decir, para garantizar que el modelo de un usuario se entrene de la manera que desean). Gensyn aborda este problema con un enfoque único, aprovechando métodos de verificación novedosos llamados "prueba probabilística de aprendizaje, protocolo de identificación basado en gráficos y juegos de incentivos estilo Truebit". Este es un modo de resolución optimista que permite a un verificador confirmar que un solucionador ha ejecutado correctamente un modelo sin tener que volverlo a ejecutar por completo, lo cual es un proceso costoso e ineficiente.
Además de su innovador método de verificación, Gensyn también reclamacionesser rentable en comparación con alternativas centralizadas y competidores cripto - proporcionando entrenamiento de ML hasta un 80% más barato que AWS mientras supera a proyectos similares como Truebit en pruebas.
Si estos resultados iniciales se pueden replicar a escala en toda una red descentralizada, está por verse. Gensyn quiere aprovechar el exceso de capacidad informática de proveedores como pequeños centros de datos, usuarios minoristas y, en el futuro, incluso dispositivos móviles más pequeños como teléfonos celulares. Sin embargo, como el propio equipo de Gensynadmitido, confiar en proveedores de cálculo heterogéneos introduce varios desafíos nuevos.
Para los proveedores centralizados, como Google Cloud Providers y Coreweave, la computación es costosa, mientras que la comunicación entre esa computación (ancho de banda y latencia) es barata. Estos sistemas están diseñados para permitir la comunicación entre hardware lo más rápido posible. Gensyn le da la vuelta a ese marco, reduciendo los costos de cómputo al permitir que cualquier persona en el mundo suministre GPU, pero aumentando los costos de comunicación, ya que la red ahora debe coordinar los trabajos de cómputo a través de hardware heterogéneo ubicado muy separado. Gensyn aún no se ha lanzado, pero es una prueba de concepto de lo que podría ser posible cuando se trata de crear protocolos de entrenamiento de aprendizaje automático descentralizados.
Las plataformas informáticas descentralizadas también están abriendo las posibilidades de diseño para los métodos de creación de inteligencia artificial. Bittensor es un protocolo de cómputo descentralizado construido sobre Substrate que es tratando de responderLa pregunta de, “¿Cómo podemos convertir la IA en un enfoque colaborativo?” Bittensor tiene como objetivo descentralizar y comercializar la generación de inteligencia artificial. Lanzado en 2021, el protocolo quiere aprovechar el poder de los modelos colaborativos de aprendizaje automático para iterar continuamente y producir una mejor inteligencia artificial.
Bittensor se inspira en Bitcoin, con un suministro de veintiún millones de su moneda nativa TAO y un ciclo de reducción a la mitad de cuatro años (la primera reducción a la mitad será en 2025). En lugar de utilizar Prueba de Trabajo para generar el nonce correcto y ganar una recompensa de bloque, Bittensor se basa en "Prueba de Inteligencia", lo que requiere que los mineros ejecuten modelos que produzcan salidas en respuesta a solicitudes de inferencia.
Bittensor originalmente dependía de un modelo de Mezcla de Expertos (MoE) para producir salidas. Cuando se envían las solicitudes de inferencia, en lugar de depender de un modelo generalizado, los modelos MoE transmiten la solicitud de inferencia a los modelos más precisos para un tipo de entrada dado. Piense en construir una casa donde contrata a una variedad de especialistas para diferentes aspectos del proceso de construcción (por ejemplo: arquitectos, ingenieros, pintores, trabajadores de la construcción, etc.). MoE aplica esto a los modelos de aprendizaje automático, intentando aprovechar las salidas de diferentes modelos según la entrada. Como el fundador de Bittensor, Ala Shaabanaexplicado, es como 'hablar con una habitación llena de personas inteligentes y obtener la mejor respuesta en lugar de hablar con una sola persona'. Debido a desafíoscon la garantía del enrutamiento adecuado, la sincronización de mensajes con el modelo correcto y la incentivación, este enfoque ha sido marginado hasta que el proyecto esté más desarrollado.
Hay dos actores principales en la red Bittensor: validadores y mineros. Los validadores tienen la tarea de enviar solicitudes de inferencia a los mineros, revisar sus salidas y clasificarlas según la calidad de sus respuestas. Para garantizar que sus clasificaciones sean fiables, a los validadores se les otorgan puntuaciones de “vtrust” basadas en qué tan bien sus clasificaciones se alinean con las clasificaciones de otros validadores. Cuanto mayor sea la puntuación de vtrust de un validador, más emisiones de TAO ganan. Esto está destinado a incentivar a los validadores a alcanzar un consenso sobre las clasificaciones de modelos con el tiempo, ya que cuanto más validadores lleguen a un acuerdo sobre las clasificaciones, mayor será la puntuación individual de vtrust.
Los mineros, también llamados servidores, son participantes de la red que ejecutan los modelos de aprendizaje automático reales. Los mineros compiten entre sí para proporcionar a los validadores las salidas más precisas para una consulta dada, ganando más emisiones de TAO cuanto más precisa sea su salida. Los mineros pueden generar esas salidas como quieran. Por ejemplo, es totalmente posible en un escenario futuro que un minero de Bittensor haya entrenado previamente modelos en Gensyn que utilizan para ganar emisiones de TAO.
Hoy en día, la mayoría de las interacciones ocurren directamente entre validadores y mineros. Los validadores envían insumos a los mineros y solicitan resultados (es decir, entrenan el modelo). Una vez que un validador ha consultado a los mineros en la red y ha recibido sus respuestas, luego clasifican a los mineros y envían sus clasificaciones a la red.
Esta interacción entre validadores (que confían en PoS) y mineros (que confían en Proof of Model, una forma de PoW) se llama Consenso Yuma. Busca incentivar a los mineros a producir los mejores resultados para ganar emisiones de TAO y a los validadores a clasificar con precisión las salidas de los mineros para ganar una puntuación de vtrust más alta e incrementar sus recompensas de TAO formando el mecanismo de consenso de la red.
Las interacciones en Bittensor consisten principalmente en validadores que envían solicitudes a los mineros y evalúan sus resultados. A medida que la calidad de los mineros que contribuyen aumenta y la inteligencia general de la red crece, Bittensor creará una capa de aplicación encima de su pila existente para que los desarrolladores puedan construir aplicaciones que consulten la red Bittensor.
En octubre de 2023, Bittensor completó un paso importante hacia la consecución de esto con el introducciónde subredes a través de su actualización Revolution. Las subredes son redes individuales en Bittensor que incentivan comportamientos específicos. Revolution abre la red a cualquier persona interesada en crear una subred. En los meses desde su lanzamiento, más de 32 subredes se han lanzado, incluidos los de solicitud de texto, raspado de datos, generación de imágenes y almacenamiento. A medida que las subredes maduran y están listas para el producto, los creadores de subredes también crearán integraciones de aplicaciones, lo que permitirá a los equipos crear aplicaciones que consulten una subred específica. Algunas aplicaciones (chatbot, generador de imágenes, bot de respuesta de Twitter, mercado de prediccionesexisten hoy, pero no hay incentivos formales para que los validadores acepten y transmitan esas consultas más allá de las subvenciones de la fundación Bittensor.
Para proporcionar una ilustración más clara, aquí hay un ejemplo de cómo Bittensor podría funcionar una vez que las aplicaciones estén integradas en la red.
Las subredes ganan TAO basado en su rendimiento evaluado por el red de raíces. La red raíz se encuentra en la parte superior de todas las subredes, actuando esencialmente como un tipo especial de subred, y es gestionada por los 64 validadores de subred más grandes por participación. Los validadores de la red raíz clasifican las subredes según su rendimiento y distribuyen las emisiones de TAO a las subredes periódicamente. De esta manera, las subredes individuales actúan como los mineros para la red raíz.
Bittensor todavía está experimentando dolores de crecimiento a medida que expande la funcionalidad del protocolo para incentivar la generación de inteligencia en múltiples subredes. Los mineros continúan ideando nuevas formas de atacar la red para ganar más recompensas TAO, por ejemplo mediantemodificandola salida de una ejecución de inferencia altamente calificada por su modelo y luego enviando múltiples variaciones. Las propuestas de gobernanza que afectan a toda la red solo pueden ser enviadas e implementadas por elTriunvirato, que está compuesto enteramente por partes interesadas de la Fundación Opentensor (importante tener en cuenta que las propuestas requieren la aprobación de BittensorSenadocompuesto por validadores de Bittensor antes de la implementación). Y la tokenómica del proyecto está en proceso de ser renovada para mejorar los incentivos para el uso de TAO en las subredes. El proyecto también está ganando rápidamente notoriedad por su enfoque único, con el CEO de uno de los sitios web de IA más populares HuggingFaceindicando que Bittensor debería agregar sus recursos al sitio web.
En un recientemente publicado piezapor un desarrollador principal llamado "Bittensor Paradigm", el equipo expone su visión para que Bittensor evolucione eventualmente a ser "agnóstico a lo que se está midiendo". En teoría, esto podría permitir que Bittensor desarrolle subredes que incentiven cualquier tipo de comportamiento, todo impulsado por TAO. Quedan considerables limitaciones prácticas, especialmente demostrar que estas redes son capaces de escalar para manejar un conjunto tan diverso de procesos y que los incentivos subyacentes impulsen el progreso que supere las ofertas centralizadas.
Las secciones anteriores ofrecen una descripción general de alto nivel de los diversos tipos de protocolos de computación de inteligencia artificial descentralizada que se están desarrollando. Si bien aún están en sus primeras etapas de desarrollo y adopción, sientan las bases de un ecosistema que eventualmente podría facilitar la creación de "bloques de construcción de IA", al igual que el concepto de "bloques de dinero" de DeFi. La composabilidad de las cadenas de bloques sin permisos abre la posibilidad para que cada protocolo se base en otros para proporcionar un ecosistema de inteligencia artificial descentralizada más completo.
Por ejemplo, aquí hay una forma en la que Akash, Gensyn y Bittensor podrían interactuar para responder a una solicitud de inferencia.
Para ser claro, esto es simplemente un ejemplo de lo que podría ser posible en el futuro, no una representación del ecosistema actual, las asociaciones existentes o los resultados probables. Las limitaciones en la interoperabilidad, así como otras consideraciones descritas a continuación, limitan considerablemente las posibilidades de integración hoy en día. Además, la fragmentación de la liquidez y la necesidad de utilizar múltiples tokens pueden ser perjudiciales para la experiencia del usuario, algo que ha sido señalópor los fundadores de Akash y Bittensor.
Además de la informática, se están implementando varios otros servicios de infraestructura descentralizada para apoyar el ecosistema emergente de IA de las criptomonedas. Enumerarlos a todos está más allá del alcance de este informe, pero algunos ejemplos interesantes e ilustrativos incluyen:
En conjunto, estos apuntan hacia las casi infinitas oportunidades para explorar modelos de mercado descentralizados que respalden modelos de IA, o la infraestructura circundante necesaria para desarrollarlos. Por ahora, estos proyectos están principalmente en la etapa de prueba de concepto y se necesita mucha más investigación y desarrollo para demostrar que pueden operar a la escala necesaria para proporcionar servicios de IA completos.
Las ofertas de cálculo descentralizado todavía están en las primeras etapas de desarrollo. Apenas están comenzando a ofrecer acceso a capacidades de cálculo de última generación capaces de entrenar los modelos de IA más potentes en producción. Para que ganen una participación de mercado significativa, deberán demostrar ventajas prácticas en comparación con las alternativas centralizadas. Los posibles desencadenantes para una adopción más amplia incluyen:
Los contratos inteligentes son un bloque de construcción fundamental de cualquier ecosistema de blockchain. Dadas un conjunto específico de condiciones, se ejecutan automáticamente y reducen o eliminan la necesidad de un tercero de confianza, lo que permite la creación de aplicaciones descentralizadas complejas como las vistas en DeFi. Sin embargo, tal como existen en su mayor parte hoy en día, los contratos inteligentes siguen estando limitados en su funcionalidad en el sentido de que se ejecutan en función de parámetros preestablecidos que deben actualizarse.
Por ejemplo, se implementa un contrato inteligente de protocolo de préstamo/alquiler con especificaciones sobre cuándo liquidar una posición basada en ciertas relaciones préstamo-valor. Si bien es útil en un entorno estático, en una situación dinámica donde el riesgo está en constante cambio, estos contratos inteligentes deben actualizarse continuamente para tener en cuenta los cambios en la tolerancia al riesgo, lo que crea desafíos para los contratos que no están regulados a través de procesos centralizados. Por ejemplo, las DAO, que dependen de procesos de gobernanza descentralizados, es posible que no puedan reaccionar lo suficientemente rápido para responder a los riesgos sistémicos.
Los contratos inteligentes que integran la IA (es decir, modelos de aprendizaje automático) son una forma posible de mejorar la funcionalidad, la seguridad y la eficiencia mientras se mejora la experiencia general del usuario. Estas integraciones también introducen riesgos adicionales, ya que es imposible asegurar que los modelos que sustentan estos contratos inteligentes no puedan ser explotados o tener en cuenta situaciones de cola larga (que son notoriamente difíciles de entrenar modelos dada laescasez de datos de entradapara ellos).
El aprendizaje automático requiere grandes cantidades de cómputo para ejecutar modelos complejos, lo que impide que los modelos de IA se ejecuten directamente dentro de contratos inteligentes debido a los altos costos. Un protocolo DeFi que proporcione a los usuarios acceso a un modelo de optimización del rendimiento, por ejemplo, tendría dificultades para ejecutar ese modelo en la cadena sin tener que pagar tarifas de gas prohibitivamente altas. Una solución es aumentar la potencia computacional de la cadena de bloques subyacente. Sin embargo, esto también aumenta las demandas sobre el conjunto de validadores de la cadena, lo que podría socavar las propiedades de descentralización. En cambio, algunos proyectos están explorando el uso de zkML para verificar los resultados de una manera confiable sin necesidad de computación intensiva en la cadena.
Uno comúnmenteUn ejemplo compartido que ilustra la utilidad de zkML es cuando un usuario necesita que otra persona ejecute datos a través de un modelo y también verifique que su contraparte realmente ejecutó el modelo correcto. Tal vez un desarrollador esté utilizando un proveedor de cómputo descentralizado para entrenar sus modelos y se preocupe de que el proveedor esté intentando reducir costos utilizando un modelo más barato con una diferencia en la salida prácticamente imperceptible. zkML permite al proveedor de cómputo ejecutar los datos a través de sus modelos y luego generar una prueba que pueda ser verificada en la cadena para demostrar que la salida del modelo para la entrada dada es correcta. En este caso, el proveedor del modelo tendría la ventaja añadida de poder ofrecer sus modelos sin tener que revelar los pesos subyacentes que producen la salida.
También se podría hacer lo contrario. Si un usuario desea ejecutar un modelo utilizando sus datos pero no quiere que el proyecto que proporciona el modelo tenga acceso a sus datos debido a preocupaciones de privacidad (es decir, en el caso de un examen médico o información comercial propietaria), entonces el usuario podría ejecutar el modelo en sus datos sin compartirlo y luego verificar que ejecutaron el modelo correcto con una prueba. Estas posibilidades expanden considerablemente el espacio de diseño para la integración de la inteligencia artificial y la funcionalidad del contrato inteligente al abordar restricciones de cálculo prohibitivas.
Dado el estado incipiente del espacio zkML, el desarrollo se centra principalmente en construir la infraestructura y las herramientas necesarias para que los equipos conviertan sus modelos y salidas en pruebas que puedan ser verificadas en cadena. Estos productos abstraen la parte de conocimiento cero del desarrollo tanto como sea posible.
EZKL y Gizason dos proyectos que construyen esta herramienta proporcionando pruebas verificables de la ejecución del modelo de aprendizaje automático. Ambos ayudan a los equipos a construir modelos de aprendizaje automático para garantizar que esos modelos puedan ser ejecutados de manera que los resultados puedan ser verificados sin confianza en la cadena. Ambos proyectos utilizan el Intercambio de Redes Neuronales Abiertas (ONNX) para transformar modelos de aprendizaje automático escritos en lenguajes comunes como TensorFlow y Pytorch en un formato estándar. Luego producen versiones de esos modelos que también producen pruebas zk cuando se ejecutan. EZKL es de código abierto y produce zk-SNARKS mientras que Giza es de código cerrado y produce zk-STARKS. Ambos proyectos actualmente solo son compatibles con EVM.
EZKL ha demostrado un progreso significativo en los últimos meses en la mejora de su solución zkML, principalmente centrada enreducción de costos, mejorando la seguridad, y acelerando la generación de pruebas. En noviembre de 2023, por ejemplo, EZKL integró una nueva biblioteca de GPU de código abierto que reduce el tiempo total de prueba en un 35% y en enero de EZKL anunciadoLilith, una solución de software para integrar clústeres de cálculo de alto rendimiento y orquestar trabajos concurrentes al usar el sistema probatorio EZKL. Giza es único en que, además de proporcionar herramientas para crear modelos de aprendizaje automático verificables, también planean implementar un equivalente de web3.Hugging Face, abriendo un mercado de usuarios para la colaboración zkML y el intercambio de modelos, así como integrando eventualmente ofertas de cómputo descentralizado. En enero, EZKL lanzó un evaluación de referenciacomparando el rendimiento de EZKL, Giza y RiscZero (discutido a continuación). EZKL demostró tiempos de prueba más rápidos y uso de memoria.
Modulus Labs también está desarrollando una nueva técnica a prueba de zk personalizada para modelos de IA. Modulus publicó un artículo llamado El Costo de la Inteligencia(insinuando los costos increíblemente altos de ejecutar modelos de IA en cadena), que comparó los sistemas de prueba zk existentes en ese momento para identificar capacidades y cuellos de botella para mejorar las pruebas zk de modelos de IA. Publicado en enero de 2023, el documento demuestra que las ofertas existentes son simplemente demasiado caras e ineficientes para permitir aplicaciones de IA a gran escala. Basándose en su investigación inicial, en noviembre Modulus@ModulusLabs/introducing-modulus-bring-ai-on-chain-d75dcb82c5e3">introdujo Remainder, un probador especializado de conocimiento cero construido específicamente para reducir costos y tiempo de prueba para modelos de IA con el objetivo de hacer económicamente factible que los proyectos integren modelos en sus contratos inteligentes a escala. Su trabajo es de código cerrado y, por lo tanto, no se pudo comparar con las soluciones anteriores, pero recientemente fue mencionado en el trabajo de Vitalik.publicación de blogen cripto y AI.
El desarrollo de herramientas e infraestructura es fundamental para el crecimiento futuro del espacio zkML porque reduce significativamente la fricción para los equipos que necesitan implementar circuitos zk necesarios para ejecutar cálculos verificables fuera de la cadena. La creación de interfaces seguras que permitan a los constructores no nativos de cripto que trabajan en aprendizaje automático llevar sus modelos a la cadena permitirá una mayor experimentación de aplicaciones con casos de uso verdaderamente novedosos. Las herramientas también abordan un obstáculo importante para una adopción más amplia de zkML, la falta de desarrolladores conocedores e interesados en trabajar en la intersección de conocimiento cero, aprendizaje automático y criptografía.
Soluciones adicionales en desarrollo, conocidas como "coprocesadores," incluyen RiscZero,Axioma, y Ritual. El término coprocesador es principalmente semántico: estas redes cumplen muchos roles diferentes, incluida la verificación de cálculos fuera de la cadena en la cadena. Al igual que con EZKL, Giza y Modulus, su objetivo es abstraer completamente el proceso de generación de pruebas de conocimiento cero, creando máquinas virtuales de conocimiento cero capaces de ejecutar programas fuera de la cadena y generar pruebas para su verificación en la cadena. RiscZero y Axiom pueden serviciomodelos de IA simples, ya que se supone que son coprocesadores más generales, mientras que Ritual está diseñado específicamente para su uso con modelos de IA.
Infernetes la primera instanciación deRitual e incluye un SDK de Infernet que permite a los desarrolladores enviar solicitudes de inferencia a la red y recibir a cambio una salida y una prueba (opcionalmente). Un Nodo de Infernet recibe estas solicitudes y maneja la computación fuera de la cadena antes de devolver una salida. Por ejemplo, un DAO podría crear un proceso para garantizar que todas las nuevas propuestas de gobernanza cumplan ciertas condiciones previas a ser presentadas. Cada vez que se presenta una nueva propuesta, el contrato de gobernanza activa una solicitud de inferencia a través de Infernet llamando a un modelo de IA de gobernanza específico de DAO. El modelo revisa la propuesta para asegurarse de que se hayan presentado todos los criterios necesarios y devuelve la salida y la prueba, ya sea aprobando o denegando la presentación de la propuesta.
Durante el próximo año, el equipo de Ritual planea implementar características adicionales que formen una capa de infraestructura base llamada Ritual Superchain. Muchos de los proyectos discutidos anteriormente podrían integrarse en Ritual como proveedores de servicios. Ya, el equipo de Ritual se ha integrado con EZKL para la generación de pruebas y probablemente pronto agregará funcionalidades de otros proveedores líderes. Los nodos de Infernet en Ritual también podrían utilizar GPUs de Akash o io.net y consultar modelos entrenados en subredes de Bittensor. Su objetivo final es ser el proveedor por excelencia de infraestructura abierta de IA, capaz de prestar servicios de aprendizaje automático y otras tareas relacionadas con la IA desde cualquier red en cualquier carga de trabajo.
zkML ayuda conciliarla contradicción entre las cadenas de bloques y la IA, donde las primeras están inherentemente limitadas en recursos y la última requiere grandes cantidades de cálculo y datos. Como uno de los fundadores de Gizaponerlo, “Los casos de uso son tan abundantes… es un poco como preguntar en los primeros días de Ethereum cuáles son los casos de uso de los contratos inteligentes… lo que estamos haciendo es simplemente expandir los casos de uso de los contratos inteligentes”. Como se ha destacado anteriormente, sin embargo, el desarrollo hoy en día se está llevando a cabo principalmente a nivel de herramientas e infraestructura. Las aplicaciones aún están en fase exploratoria, con equipos desafiados a demostrar que el valor generado al implementar modelos utilizando zkML supera la complejidad y los costos de hacerlo.
Algunas aplicaciones hoy incluyen:
zkML todavía está en la etapa experimental con la mayoría de los proyectos enfocados en desarrollar infraestructuras primitivas y pruebas de concepto. Los desafíos actuales incluyen costos computacionales, limitaciones de memoria, complejidad del modelo, herramientas e infraestructuras limitadas y talento de desarrolladores. En pocas palabras, hay considerablemente más trabajo por hacer antes de que zkML pueda implementarse a la escala necesaria para productos de consumo.
A medida que el campo madura, sin embargo, y estas limitaciones son abordadas, zkML se convertirá en un componente crítico de la integración de IA y cripto. En su núcleo, zkML promete la capacidad de llevar cálculos fuera de la cadena de cualquier tamaño a la cadena, manteniendo las mismas o casi las mismas garantías de seguridad como si el cálculo se hubiera ejecutado en la cadena. Hasta que esa visión se haga realidad, sin embargo, los primeros usuarios de la tecnología continuarán teniendo que equilibrar los compromisos entre la privacidad y seguridad de zkML y la eficiencia de las alternativas.
Una de las integraciones más emocionantes de la IA y la cripto es la experimentación en curso con Agentes de IA. Los Agentes son bots autónomos capaces de recibir, interpretar y ejecutar tareas utilizando un modelo de IA. Esto podría ser desde tener un asistente personal siempre disponible que está ajustado a tus preferencias hasta contratar un agente financiero que gestiona y ajusta tu cartera según tus preferencias de riesgo.
Los agentes y la cripto encajan bien juntos debido a la infraestructura de pagos sin permiso y sin confianza que proporciona la cripto. Una vez capacitados, los agentes pueden recibir una billetera para que puedan realizar transacciones con contratos inteligentes por su cuenta. Los agentes simples de hoy, por ejemplo, pueden rastrear Internet en busca de información y luego realizar operaciones en mercados de predicción basados en un modelo.
Morpheuses uno de los proyectos de agente de código abierto más nuevos que llegan al mercado en Ethereum y Arbitrum en 2024. Su libro blanco fue publicado de forma anónima en septiembre de 2023, proporcionando la base para que se forme una comunidad y se construya en torno a (incluidas figuras destacadas comoErik Vorhees). El libro blanco incluye un descargable Protocolo de Agente Inteligente, que es un LLM de código abierto que se puede ejecutar localmente, gestionado por la billetera del usuario e interactuar con contratos inteligentes. Utiliza un Rango de Contrato Inteligentepara ayudar al agente a determinar qué contratos inteligentes son seguros para interactuar, según criterios como el número de transacciones procesadas.
El libro blanco también proporciona un marco para desarrollar la Red Morpheus, como las estructuras de incentivos y la infraestructura necesaria para hacer operativo el Protocolo de Agente Inteligente. Esto incluye incentivar a los colaboradores a desarrollar interfaces para interactuar con los agentes, APIs para que los desarrolladores construyan aplicaciones que puedan conectarse a los agentes para que puedan interactuar entre sí, y soluciones en la nube para permitir a los usuarios acceder a la computación y almacenamiento necesarios para ejecutar un agente en un dispositivo periférico. La financiación inicial para el proyecto se lanzó a principios de febrero con la expectativa de que el protocolo completo se lance en el segundo trimestre de 2024.
Red de Infraestructura Autónoma Descentralizada (DAIN)es un nuevo protocolo de infraestructura de agentes que desarrolla una economía de agente a agente en Solana. DAIN tiene como objetivo hacer que los agentes de diferentes empresas puedan interactuar entre sí de forma transparente a través de una API universal, abriendo considerablemente el espacio de diseño para agentes de IA con un enfoque en la implementación de agentes capaces de interactuar tanto con productos web2 como web3. En enero, DAIN anunció su primero asociacióncon Asset Shield que permite a los usuarios agregar “firmantes agentes” a su multisig que son capaces de interpretar transacciones y aprobar/denegar basándose en reglas establecidas por el usuario.
Fetch.AIfue uno de los primeros protocolos de Agentes de IA implementados y ha desarrollado un ecosistema para construir, implementar y utilizar Agentes en cadena utilizando su token FET y Fetch.AIwallet. El protocolo proporciona un conjunto completo de herramientas y aplicaciones para usar Agentes, incluida la funcionalidad en la billetera para interactuar y ordenar agentes.
Autonolas, cuyos fundadores incluyen a un miembro anterior del equipo de Fetch, es un mercado abierto para la creación y uso de agentes de IA descentralizados. Autonolas también proporciona un conjunto de herramientas para que los desarrolladores construyan agentes de IA que se alojen fuera de la cadena y puedan conectarse a múltiples blockchains, incluidos Polygon, Ethereum, Gnosis Chain y Solana. Actualmente tienen un par de pruebas de concepto de agentes activos productosincluyendo su uso en mercados de predicción y gobernanza de DAO.
SingularityNetestá construyendo un mercado descentralizado para agentes de IA donde las personas pueden implementar agentes de IA estrechamente enfocados que pueden ser contratados por otras personas o agentes para ejecutar tareas complejas. Otros, como AlteredStateMachine, están desarrollando integraciones de Agentes de IA con NFT. Los usuarios crean NFT con atributos aleatorios que les otorgan fortalezas y debilidades para diferentes tareas. Estos agentes pueden ser entrenados para mejorar ciertos atributos para usos como juegos, DeFi, o como asistente virtual y ser intercambiados con otros usuarios.
En conjunto, estos proyectos vislumbran un futuro ecosistema de agentes capaces de trabajar juntos no solo para ejecutar tareas, sino para ayudar a construir una inteligencia artificial general. Los agentes verdaderamente sofisticados tendrán la capacidad de llevar a cabo cualquier tarea de forma autónoma. Por ejemplo, en lugar de tener que asegurarse de que un Agente ya se ha integrado con una API externa (como un sitio web de reservas de viajes) antes de usarlo, los agentes completamente autónomos tendrán la capacidad de averiguar cómo contratar a otro agente para integrar la API y luego ejecutar la tarea. Desde la perspectiva del usuario, no habrá necesidad de verificar si un agente puede llevar a cabo una tarea porque el agente puede determinarlo por sí mismo.
En julio de 2023, Lightning Labsimplementó una implementación de prueba de concepto para usar Agentes en la Red Lightning llamada el Suite de Bitcoin LangChain. El producto es especialmente interesante ya que pretende abordar un problema creciente en el mundo web 2 -gatedycaroClaves API para aplicaciones web.
LangChain resuelve esto al proporcionar a los desarrolladores un conjunto de herramientas que permiten a los agentes comprar, vender y mantener Bitcoin, así como consultar claves de API y enviar micro pagos. Mientras que en los raíles de pago tradicionales los pequeños micro pagos son prohibitivos debido a las tarifas, en la red Lightning los agentes pueden enviar pagos diarios ilimitados con tarifas mínimas. Cuando se combina con el marco de API con medidor de pagos L402 de LangChain, esto podría permitir a las empresas ajustar las tarifas de acceso a su API a medida que aumenta y disminuye el uso, en lugar de establecer un estándar único prohibitivo de costo.
En un futuro en el que la actividad on-chain esté dominada por agentes que interactúan con agentes, será necesario algo así para garantizar que los agentes puedan interactuar entre sí de una manera que no tenga un coste prohibitivo. Este es uno de los primeros ejemplos de cómo el uso de agentes en vías de pago rentables y sin permiso abre las posibilidades de nuevos mercados e interacciones económicas.
El espacio de los Agentes todavía está en pañales. Los proyectos apenas están empezando a implementar agentes funcionales que puedan manejar tareas simples utilizando su infraestructura, la cual a menudo solo es accesible para desarrolladores y usuarios sofisticados. Con el tiempo, sin embargo, uno de los mayores impactos que tendrán los agentes de IA en la cripto será la mejora de la experiencia de usuario en todas las verticales. Las transacciones comenzarán a pasar de hacer clic a basarse en texto, con los usuarios teniendo la capacidad de interactuar con agentes on-chain a través de LLMs. Equipos como Cartera Dawnestán introduciendo billeteras de chat-bot para que los usuarios interactúen en la cadena.
Además, no está claro cómo podrían operar los agentes en la web 2 donde los raíles financieros dependen de instituciones bancarias reguladas que no operan las 24 horas del día y no pueden realizar transacciones transfronterizas sin problemas. As Lyn AldenComo se ha destacado, las vías cripto son especialmente atractivas en comparación con las tarjetas de crédito debido a la falta de contracargos y la capacidad de procesar microtransacciones. Sin embargo, si los agentes se convierten en un medio de transacción más común, es probable que los proveedores de pagos y aplicaciones existentes se muevan rápidamente para implementar la infraestructura requerida para que operen en las vías financieras existentes, mitigando algunos de los beneficios de usar cripto.
Por ahora, es probable que los agentes estén confinados a transacciones cripto a cripto deterministas donde se garantiza una salida dada para una entrada dada. Ambos modelos, que dictan la capacidad de estos agentes para descubrir cómo ejecutar tareas complejas, y las herramientas, que amplían el alcance de lo que pueden lograr, requieren un mayor desarrollo. Para que los agentes cripto sean útiles fuera de los casos de uso de cripto novedosos en cadena, se requerirá una integración más amplia y la aceptación de la cripto como forma de pago, así como claridad regulatoria. Sin embargo, a medida que estos componentes se desarrollen, los agentes están preparados para convertirse en uno de los mayores consumidores de cómputo descentralizado y soluciones zkML discutidas anteriormente, actuando de manera autónoma no determinista para recibir y resolver cualquier tarea.
La inteligencia artificial introduce en la cripto las mismas innovaciones que ya vemos desarrollándose en la web2, mejorando todo, desde el desarrollo de infraestructuras hasta la experiencia del usuario y la accesibilidad. Sin embargo, los proyectos todavía están en una etapa temprana de su evolución y la integración a corto plazo de la cripto y la inteligencia artificial estará principalmente dominada por integraciones fuera de la cadena.
Productos como Copilotovoluntad "10x"eficiencia del desarrollador, concapa 1syDeFiaplicaciones que ya están implementando plataformas de desarrollo asistidas por IA en colaboración con grandes corporaciones como Microsoft. Empresas como Cub3.aiyMáquina de pruebaestán desarrollando integraciones de IA para auditoría de contratos inteligentes y monitoreo de amenazas en tiempo real para mejorar la seguridad on-chain. Y los chatbots de LLM se están entrenando utilizando datos on-chain, documentos de protocolo y aplicaciones para proporcionar a los usuarios una mayor accesibilidad y UX.
Para integraciones más avanzadas que realmente aprovechen las tecnologías subyacentes de la cripto, el desafío sigue siendo demostrar que implementar soluciones de IA en cadena es tanto técnicamente posible como económicamente viable a gran escala. Los avances en computación descentralizada, zkML y Agentes de IA apuntan hacia verticales prometedoras que están sentando las bases para un futuro donde la cripto y la IA están profundamente interconectadas.