El auge de las redes DePIN de IA: la computación GPU descentralizada lidera una nueva tendencia

AI DePIN Red: El futuro de la computación GPU descentralizada

Desde 2023, la IA y DePIN se han convertido en tendencias populares en el campo de Web3, con un valor de mercado de 30 mil millones de dólares y 23 mil millones de dólares, respectivamente. Este artículo se centra en el área de intersección de ambos, explorando el desarrollo de los protocolos relacionados.

En la pila tecnológica de IA, la red DePIN potencia la IA al proporcionar recursos de computación. La escasez de GPU provocada por las grandes empresas tecnológicas ha dificultado que otros desarrolladores de IA obtengan suficiente capacidad de cálculo de GPU. La práctica tradicional es elegir proveedores de servicios en la nube centralizados, pero esto requiere firmar contratos a largo plazo poco flexibles y es ineficiente.

DePIN ofrece una alternativa más flexible y rentable, incentivando a través de tokens la contribución de recursos que cumplen con los objetivos de la red. En el ámbito de la IA, DePIN integra recursos individuales de GPU en centros de datos, proporcionando un suministro unificado a los usuarios. Esto no solo ofrece a los desarrolladores acceso personalizado y bajo demanda, sino que también crea ingresos adicionales para los propietarios de GPU.

Existen numerosos redes DePIN de IA en el mercado, este artículo explorará el papel, los objetivos y los aspectos destacados de cada protocolo, así como sus diferencias.

AI y el punto de intersección de DePIN

Visión general de la red DePIN de IA

Render

Render es el pionero de la red de computación GPU P2P, inicialmente centrado en la renderización gráfica, y luego se expandió a tareas de computación AI.

Destacar:

  • Fundada por la empresa OTOY, ganadora del Premio Técnico Oscar.
  • La red GPU es utilizada por grandes empresas de entretenimiento como Paramount, PUBG, etc.
  • Colaborar con Stability AI y otros, integrando modelos de IA en flujos de trabajo de renderizado de contenido 3D.
  • Aprobar múltiples clientes de cálculo, integrar más GPU de redes DePIN

Akash

Akash se posiciona como una plataforma de "súper nube" que admite almacenamiento, computación GPU y CPU, y es una alternativa a plataformas tradicionales como AWS. Utilizando nodos de computación administrados por plataformas de contenedores y Kubernetes, se pueden implementar sin problemas cualquier aplicación nativa de la nube.

Destacar:

  • Enfocado en una amplia gama de tareas de computación que van desde computación general hasta alojamiento web.
  • AkashML permite ejecutar más de 15,000 modelos en Hugging Face
  • Aplicaciones importantes como el chatbot LLM de Mistral AI y SDXL de Stability AI.
  • La metaverso, la implementación de IA y la plataforma de aprendizaje federado están utilizando su supernube.

io.net

io.net ofrece acceso a clústeres de GPU en la nube distribuidos específicamente para AI y ML, agregando recursos de GPU de centros de datos, mineros, etc.

Destacar:

  • IO-SDK es compatible con marcos como PyTorch y Tensorflow, y puede escalar automáticamente según las necesidades.
  • Soporta la creación de 3 tipos diferentes de clústeres, se puede iniciar en 2 minutos.
  • Colaborar e integrar otras redes DePIN de GPU como Render, Filecoin, etc.

Gensyn

Gensyn ofrece capacidades de computación GPU enfocadas en el aprendizaje automático y el aprendizaje profundo. A través de tecnologías como la prueba de aprendizaje, se logra un mecanismo de validación más eficiente.

Destacados:

  • El costo por hora de la GPU V100 es de aproximadamente 0.40 dólares, lo que representa un gran ahorro de costos.
  • Se puede ajustar el modelo base preentrenado para completar tareas más específicas.
  • El modelo básico será descentralizado, compartido globalmente, y ofrecerá funciones adicionales.

Aethir

Aethir se especializa en el despliegue de GPU de nivel empresarial, enfocándose en áreas de alta computación como IA, ML y juegos en la nube. Los contenedores en la red actúan como puntos finales virtuales para ejecutar aplicaciones en la nube, logrando una experiencia de baja latencia.

Destacar:

  • Expandir el servicio de teléfonos en la nube, lanzar teléfonos en la nube descentralizados en colaboración con APhone
  • Establecer una amplia colaboración con grandes empresas Web2 como NVIDIA, HPE.
  • Con múltiples socios de Web3 como CARV, Magic Eden

Phala Network

Phala Network como la capa de ejecución de soluciones Web3 AI, utiliza el entorno de ejecución confiable (TEE) para abordar problemas de privacidad. Permite que los agentes de IA sean controlados por contratos inteligentes en la cadena.

Destacar:

  • Como protocolo de coprocesador de computación verificable, empodera a los agentes de IA con recursos en la cadena.
  • Los contratos de agencia de IA se pueden obtener a través de Redpill con los principales modelos de lenguaje como OpenAI.
  • El futuro incluirá sistemas de prueba múltiple como zk-proofs, MPC y FHE.
  • En el futuro, se apoyará GPU TEE como H100, mejorando la capacidad de cálculo.

Comparación de proyectos

| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Hardware | GPU \u0026 CPU | GPU \u0026 CPU | GPU \u0026 CPU | GPU | GPU | CPU | | Enfoques de negocio | Renderizado gráfico e IA | Computación en la nube, renderizado e IA | IA | IA | IA, juegos en la nube y telecomunicaciones | Ejecución de IA en cadena | | Tipo de tarea de IA | Inferencia | Ambas disponibles | Ambas disponibles | Entrenamiento | Entrenamiento | Ejecución | | Precio de trabajo | Precio basado en rendimiento | Subasta inversa | Precio de mercado | Precio de mercado | Sistema de licitación | Cálculo de derechos | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Privacidad de datos | Encriptación&hash | Autenticación mTLS | Encriptación de datos | Mapeo seguro | Encriptación | TEE | | Costos de trabajo | 0.5-5% por trabajo | 20% USDC, 4% AKT | 2% USDC, 0.25% costo de reserva | Costos bajos | 20% por sesión | Proporcional al monto apostado | | Seguridad | Prueba de Renderizado | Prueba de Participación | Prueba de Cálculo | Prueba de Participación | Prueba de Capacidad de Renderizado | Heredado de la Cadena de Relé | | Prueba de finalización | - | - | Prueba de bloqueo temporal | Prueba de aprendizaje | Prueba de trabajo de renderizado | Prueba de TEE | | Garantía de calidad | Controversia | - | - | Verificador y denunciante | Nodo de verificación | Prueba remota | | GPU集群 | No | Sí | Sí | Sí | Sí | No |

AI y el punto de intersección de DePIN

Importancia

disponibilidad de computación en clúster y en paralelo

El marco de computación distribuida implementó un clúster de GPU, proporcionando un entrenamiento más eficiente y al mismo tiempo mejorando la escalabilidad. Entrenar modelos de IA complejos requiere una potente capacidad de computación, que a menudo depende de la computación distribuida. Por ejemplo, el modelo GPT-4 de OpenAI tiene más de 1.8 billones de parámetros y se entrenó en aproximadamente 25,000 GPU Nvidia A100 en 128 clústeres durante 3-4 meses.

La mayoría de los proyectos ahora han integrado clusters para realizar cálculos en paralelo. io.net está colaborando con otros proyectos para incorporar más GPU a la red, habiendo desplegado más de 3,800 clusters en el primer trimestre de 2024. Render, aunque no soporta clusters, descompone un solo frame en múltiples nodos para su procesamiento simultáneo, funcionando de manera similar. Phala actualmente solo soporta CPU, pero permite la agrupación de trabajadores de CPU.

AI y el punto de intersección de DePIN

privacidad de datos

El desarrollo de modelos de IA requiere grandes conjuntos de datos, que pueden contener información sensible. Samsung desactivó ChatGPT por temor a la filtración de código, y el incidente de filtración de datos de 38TB de Microsoft destaca la importancia de las medidas de seguridad de IA. Por lo tanto, varios métodos de privacidad de datos son cruciales para proteger el control sobre los datos.

La mayoría de los proyectos utilizan alguna forma de cifrado de datos. Render utiliza cifrado y hash al publicar los resultados de renderizado, io.net y Gensyn emplean cifrado de datos, y Akash utiliza autenticación mTLS para restringir el acceso a los datos.

io.net ha lanzado recientemente una criptografía completamente homomórfica (FHE) en colaboración con Mind Network, permitiendo el procesamiento de datos cifrados sin necesidad de descifrarlos, protegiendo mejor la privacidad de los datos en comparación con las técnicas de cifrado existentes.

Phala Network introduce un entorno de ejecución confiable ( TEE ), para prevenir el acceso o la modificación de datos por procesos externos. También combina zk-proofs en el validador zkDCAP y jtee CLI, para integrar RiscZero zkVM.

AI y el punto de intersección de DePIN

Prueba de cálculo completada y control de calidad

Debido a la amplia gama de servicios, desde renderizado hasta cálculos de IA, la calidad final puede no siempre cumplir con los estándares del usuario. Completar la verificación y el control de calidad es beneficioso para los usuarios.

La prueba de finalización generada por Gensyn y Aethir, la prueba de io.net indica que el rendimiento de la GPU se está utilizando de manera óptima. Gensyn y Aethir realizan controles de calidad, Gensyn utiliza validadores y reporteros, Aethir utiliza nodos de verificación. Render sugiere utilizar un proceso de resolución de disputas. Phala genera pruebas TEE, asegurando que los agentes de IA realicen las operaciones necesarias.

Datos de estadísticas de hardware

| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Cantidad de GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Cantidad de CPU | 114 | 14672 | 5433 | - | - | 30000+ | | Cantidad H100/A100 | - | 157 | 2330 | - | 2000+ | - | | Costo H100/hora | - | $1.46 | $1.19 | - | - | - | | Costo A100/hora | - | $1.37 | $1.50 | $0.55 ( previsto ) | $0.33 ( previsto ) | - |

Punto de intersección entre AI y DePIN

demanda de GPU de alto rendimiento

Los modelos de IA tienden a entrenarse utilizando GPUs de alto rendimiento como la Nvidia A100 y H100. El rendimiento de inferencia del H100 es 4 veces superior al del A100, convirtiéndose en la opción preferida para que las grandes empresas entrenen LLM.

Los proveedores de mercados de GPU descentralizados deben ofrecer precios más bajos y satisfacer la demanda real. En 2023, Nvidia entregó más de 500,000 unidades de H100 a grandes empresas tecnológicas, lo que dificultó la obtención de hardware equivalente. Por lo tanto, es crucial considerar la cantidad de hardware que estos proyectos pueden introducir a bajo costo para expandir su base de clientes.

Akash solo tiene un poco más de 150 H100 y A100, mientras que io.net y Aethir tienen más de 2000 cada uno. Los modelos LLM preentrenados o generativos generalmente requieren entre 248 y más de 2000 clústeres de GPU, por lo que los dos últimos proyectos son más adecuados para el cálculo de modelos grandes.

El costo del servicio GPU descentralizado ha bajado por debajo del de los servicios centralizados. Gensyn y Aethir afirman que se puede alquilar hardware de nivel A100 por menos de 1 dólar la hora, pero aún se necesita tiempo para verificarlo.

En comparación con los GPU conectados por NVLink, la memoria de los clústeres de GPU conectados por red está limitada. NVLink permite la comunicación directa entre GPU, lo que es adecuado para LLM con grandes parámetros y grandes conjuntos de datos. A pesar de esto, las redes de GPU descentralizadas aún ofrecen una potente capacidad de cómputo y escalabilidad para tareas de computación distribuida, creando oportunidades para construir más casos de uso de IA y ML.

AI y el punto de intersección de DePIN

proporciona GPU/CPU de nivel de consumo

La CPU también desempeña un papel importante en el entrenamiento de modelos de IA, desde el preprocesamiento de datos hasta la gestión de memoria. Las GPU de consumo pueden utilizarse para ajustar modelos preentrenados o entrenar modelos a pequeña escala.

Considerando que más del 85% de los recursos de GPU de los consumidores están inactivos, proyectos como Render, Akash e io.net también atienden a este mercado. Ofrecer estas opciones les permite desarrollar un mercado de nicho, enfocándose en computación intensiva a gran escala, renderizado a pequeña escala o una mezcla de ambos.

AI y el punto de intersección de DePIN

Conclusión

El campo de DePIN de IA sigue siendo relativamente nuevo y enfrenta desafíos. Por ejemplo, io.net fue acusado de falsificar la cantidad de GPU, pero luego resolvió el problema introduciendo un proceso de prueba de trabajo.

A pesar de esto, el número de tareas y hardware ejecutados en estas redes de GPU descentralizadas ha aumentado significativamente, destacando el crecimiento de la demanda de alternativas a los recursos de hardware de proveedores de nube Web2. Al mismo tiempo, el aumento de proveedores de hardware refleja un suministro previamente subutilizado. Esto demuestra aún más el ajuste del producto del red DePIN de IA al mercado, abordando eficazmente los desafíos de demanda y suministro.

Mirando hacia el futuro, la IA se desarrollará en un mercado de billones de dólares en expansión. Estas redes de GPU distribuidas desempeñarán un papel clave en proporcionar a los desarrolladores alternativas de computación rentables. Al cerrar continuamente la brecha entre la demanda y la oferta, estas redes contribuirán significativamente al futuro del panorama de la IA y la infraestructura computacional.

AI y el punto de intersección de DePIN

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 4
  • Compartir
Comentar
0/400
SpeakWithHatOnvip
· 08-06 07:46
¿Sigues especulando con depin? Más vale morir joven y renacer.
Ver originalesResponder0
SmartContractPlumbervip
· 08-06 07:46
Este código aún necesita ser auditado, no expongas vulnerabilidades abiertamente.
Ver originalesResponder0
HodlNerdvip
· 08-06 07:45
teoría de juegos fascinante en juego... los pools de GPU descentralizados son la próxima evolución lógica, para ser honesto
Ver originalesResponder0
PanicSellervip
· 08-06 07:34
Solo falta una tarjeta gráfica, mira lo que pueden hacer estas personas.
Ver originalesResponder0
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)