Explicación detallada de la infraestructura de AI+Web3

Intermedio3/29/2024, 7:41:47 PM
Los principales proyectos en la capa de infraestructura de la industria AI+Web3 básicamente toman la red de computación descentralizada como la narrativa principal, el bajo costo como la ventaja principal, los incentivos de token como la principal forma de expandir la red, y servir a los clientes AI+Web3 como el objetivo principal.

Título original reenviado: AI+Web3 Future Development Path (2): Capítulo de Infraestructura

La infraestructura es la dirección determinista de crecimiento del desarrollo de la IA

1. Demanda creciente de computación AI

En los últimos años, la demanda de potencia informática ha experimentado un crecimiento rápido, especialmente tras la aparición del gran modelo LLM. Esta oleada de demanda de potencia informática para IA ha impactado significativamente en el mercado de computación de alto rendimiento. Los datos de OpenAI revelan una tendencia notable desde 2012, con la potencia informática utilizada para entrenar los modelos de IA más grandes creciendo exponencialmente, duplicándose cada 3-4 meses en promedio, superando la tasa de crecimiento predicha por la Ley de Moore. La creciente demanda de aplicaciones de IA ha resultado en un rápido aumento en la necesidad de hardware informático. Las proyecciones indican que para 2025, se espera que la demanda de hardware informático impulsada por aplicaciones de IA aumente aproximadamente un 10% a 15%.

Impulsado por la demanda de potencia informática de IA, el fabricante de hardware de GPU NVIDIA ha presenciado un crecimiento continuo en los ingresos del centro de datos. En el segundo trimestre de 2023, los ingresos del centro de datos alcanzaron los $10.32 mil millones, lo que marca un aumento del 141% respecto al primer trimestre de 2023 y un notable aumento del 171% respecto al mismo período del año anterior. Para el cuarto trimestre del año fiscal 2024, el segmento del centro de datos representó más del 83% de los ingresos totales, experimentando un crecimiento simultáneo del 409%, con un 40% atribuido a escenarios de inferencia de modelos grandes, lo que indica una sólida demanda de potencia informática de alto rendimiento.

Simultáneamente, la necesidad de vastas cantidades de datos impone requisitos significativos en el almacenamiento y la memoria del hardware. Especialmente durante la fase de entrenamiento del modelo, son esenciales entradas de parámetros extensas y almacenamiento de datos. Los chips de memoria utilizados en servidores de IA incluyen predominantemente memoria de alta velocidad (HBM), DRAM y SSD. Los entornos de trabajo para servidores de IA deben ofrecer mayor capacidad, rendimiento mejorado, latencia reducida y tiempos de respuesta más rápidos. Según los cálculos de Micron, la cantidad de DRAM en servidores de IA excede en ocho veces a la de servidores tradicionales, mientras que la cantidad de NAND supera los estándares tradicionales de servidores en tres veces.

2. El desequilibrio entre la oferta y la demanda impulsa los costos de la potencia informática

Normalmente, la potencia informática se utiliza principalmente en las etapas de entrenamiento, ajuste fino e inferencia de los modelos de IA, especialmente durante las fases de entrenamiento y ajuste fino. Debido al aumento de los parámetros de entrada de datos, los requisitos computacionales y la creciente demanda de interconectividad en la computación en paralelo, hay una necesidad de hardware de GPU más potente e interconectado, a menudo en forma de clústeres de GPU de alto rendimiento. A medida que los modelos grandes evolucionan, la complejidad computacional aumenta linealmente, lo que requiere hardware más avanzado para satisfacer las demandas del entrenamiento del modelo.

Tomando GPT-3 como ejemplo, con un escenario que involucra alrededor de 13 millones de visitas de usuarios independientes, la demanda de chips correspondiente superaría las 30,000 GPU A100. Este costo de inversión inicial alcanzaría la asombrosa cifra de $800 millones, con costos estimados de inferencia de modelo diarios que rondan los $700,000.

Al mismo tiempo, los informes de la industria indican que en el cuarto trimestre de 2023, el suministro de GPU de NVIDIA se vio severamente restringido a nivel mundial, lo que provocó un desequilibrio notable entre la oferta y la demanda en los mercados de todo el mundo. La capacidad de producción de NVIDIA se vio limitada por factores como TSMC, HBM, el empaquetado CoWos, y se espera que el 'grave problema de escasez' de la GPU H100 persista al menos hasta finales de 2024.

Por lo tanto, el aumento en la demanda de GPUs de alta gama y las restricciones de suministro han impulsado los precios desorbitados de componentes de hardware actuales como las GPUs. Especialmente para empresas como NVIDIA que ocupan una posición central en la cadena de la industria, los altos precios son aún más elevados debido a su dominio monopolístico, lo que les permite obtener dividendos de valor adicionales. Por ejemplo, el costo material de la tarjeta aceleradora de inteligencia artificial H100 de NVIDIA es de aproximadamente $3,000, sin embargo, su precio de venta alcanzó alrededor de $35,000 a mediados de 2023 e incluso superó los $40,000 en eBay.

3. La infraestructura de inteligencia artificial impulsa el crecimiento de la cadena de la industria

Un informe de Grand View Research indica que el tamaño del mercado global de IA en la nube se estimó en $62.63 mil millones en 2023, con proyección de alcanzar $647.6 mil millones para 2030, con una tasa de crecimiento anual compuesta del 39.6%. Estas cifras subrayan el significativo potencial de crecimiento de los servicios de IA en la nube y su contribución sustancial a la cadena global de la industria de la IA.

Según las estimaciones de a16z, una parte sustancial de los fondos en el mercado de AIGC (Inteligencia Artificial y Computación Global) fluye en última instancia hacia empresas de infraestructura. En promedio, las empresas de aplicaciones destinan aproximadamente del 20 al 40 % de sus ingresos a inferencias y ajustes finos para cada cliente. Este gasto se dirige típicamente al proveedor de la nube de la instancia de cómputo o a un proveedor de modelos de terceros, que a su vez dedica alrededor de la mitad de los ingresos a la infraestructura en la nube. En consecuencia, es razonable suponer que del 10 al 20 % de los ingresos totales generados por AIGC se canalizan hacia los proveedores de la nube.

Además, una parte significativa de la demanda de potencia informática se centra en el entrenamiento de grandes modelos de IA, incluidos varios modelos extensos de LLM. Especialmente para las startups de modelos, el 80-90% de los costos se atribuyen a la potencia informática de IA. En conjunto, se espera que la infraestructura informática de IA, que abarca la informática en la nube y el hardware, represente más del 50% del valor inicial del mercado.

Computación descentralizada de IA

Como se discutió anteriormente, el costo actual de la computación de IA centralizada sigue siendo alto, principalmente debido a la creciente demanda de infraestructura de alto rendimiento para el entrenamiento de IA. Sin embargo, existe una cantidad significativa de potencia de cómputo inactiva en el mercado, lo que lleva a un desajuste entre la oferta y la demanda. Los factores clave que contribuyen a este desequilibrio incluyen:

  • Limitado por la memoria, la complejidad del modelo no tiene una relación de crecimiento lineal con la cantidad de GPUs requeridos. Las GPUs actuales tienen ventajas en la potencia de cálculo, pero el entrenamiento del modelo requiere que una gran cantidad de parámetros se almacene en la memoria. Por ejemplo, para GPT-3, con el fin de entrenar un modelo con 175 mil millones de parámetros, se necesita más de 1 terabyte de datos para ser almacenados en la memoria, más que cualquier GPU disponible hoy en día, lo que requiere más GPUs para la computación y el almacenamiento en paralelo, lo que a su vez llevará a una potencia de cálculo de la GPU inactiva. Por ejemplo, desde GPT3 a GPT4, el tamaño de los parámetros del modelo aumentó aproximadamente 10 veces, pero el número de GPUs requeridos aumentó 24 veces (sin tener en cuenta el aumento en el tiempo de entrenamiento del modelo). Según el análisis relevante, OpenAI utilizó aproximadamente 2.15e25 FLOPS en el entrenamiento de GPT-4, y realizó el entrenamiento en aproximadamente 25,000 GPUs A100 durante 90 a 100 días, con una utilización de la potencia de cálculo de aproximadamente 32% a 36%.

Ante los desafíos mencionados anteriormente, la búsqueda de diseñar chips de alto rendimiento o chips ASIC especializados adaptados para tareas de IA es un camino destacado que están explorando numerosos desarrolladores y grandes empresas. Otro enfoque implica la utilización integral de los recursos informáticos existentes para establecer una red de computación distribuida, con el objetivo de reducir los costos de energía informática mediante el arrendamiento, el intercambio y la programación eficiente de recursos. Además, el mercado actualmente cuenta con un excedente de GPUs y CPUs de consumo inactivo. Si bien las unidades individuales pueden carecer de una potencia de computación sólida, pueden satisfacer eficazmente los requisitos computacionales existentes en escenarios específicos o cuando se integran con chips de alto rendimiento. Es crucial garantizar un suministro suficiente, ya que los costos pueden reducirse aún más mediante la programación de redes distribuidas.

En consecuencia, el cambio hacia la potencia informática distribuida ha surgido como una dirección clave en el avance de la infraestructura de IA. Al mismo tiempo, dada la alineación conceptual entre Web3 y sistemas distribuidos, las redes de potencia informática descentralizada se han convertido en un enfoque principal en el panorama de la infraestructura Web3+AI. Actualmente, las plataformas de potencia informática descentralizada en el mercado Web3 generalmente ofrecen precios que son un 80%-90% más bajos que los servicios de computación en la nube centralizados.

Si bien el almacenamiento juega un papel vital en la infraestructura de IA, el almacenamiento centralizado tiene ventajas distintas en cuanto a escala, usabilidad y baja latencia. Sin embargo, debido a las notables eficiencias de costos que ofrecen, las redes de computación distribuida tienen un potencial de mercado significativo y están en condiciones de cosechar beneficios sustanciales de la expansión del mercado de IA en auge.

  • La inferencia de modelos y el entrenamiento de modelos pequeños representan los escenarios fundamentales para la potencia de computación distribuida actual. La dispersión de recursos informáticos en sistemas distribuidos introduce inevitablemente desafíos de comunicación entre las GPUs, lo que potencialmente conduce a una reducción del rendimiento informático. En consecuencia, la potencia de computación distribuida es más adecuada para escenarios que requieren una comunicación mínima y pueden respaldar eficazmente tareas paralelas. Estos escenarios incluyen la fase de inferencia de modelos de IA extensos y modelos pequeños con relativamente menos parámetros, minimizando los impactos en el rendimiento. Mirando hacia el futuro, a medida que evolucionan las aplicaciones de IA, el razonamiento surge como un requisito crítico en la capa de aplicación. Dado que la mayoría de las empresas carecen de la capacidad para entrenar grandes modelos de forma independiente, la potencia de computación distribuida conserva un significativo potencial de mercado a largo plazo.
  • Hay un aumento en los marcos de entrenamiento distribuido de alto rendimiento diseñados para la computación paralela a gran escala. Marcos innovadores de computación distribuida de código abierto como PyTorch, Ray y DeepSpeed están brindando a los desarrolladores un sólido soporte fundamental para aprovechar la potencia de cálculo distribuido en el entrenamiento de modelos. Este avance mejora la aplicabilidad de la potencia de cálculo distribuido en el futuro mercado de la inteligencia artificial, facilitando su integración en diversas aplicaciones de IA.

La lógica narrativa de los proyectos de infraestructura AI+Web3

El sector de infraestructura de IA distribuida presenta una demanda robusta y perspectivas de crecimiento significativas a largo plazo, lo que lo convierte en un área atractiva para el capital de inversión. Actualmente, los proyectos principales dentro de la capa de infraestructura de la industria AI+Web3 se centran predominantemente en redes de computación descentralizadas. Estos proyectos enfatizan los costos bajos como una ventaja clave, utilizan incentivos de tokens para expandir sus redes y priorizan servir a la clientela de AI+Web3 como su objetivo principal. Este sector comprende principalmente dos niveles clave:

  1. Una plataforma relativamente pura de intercambio y alquiler de recursos informáticos en la nube descentralizada: Proyectos de IA tempranos como Render Network, Akash Network, entre otros, entran en esta categoría.
  • El principal punto de ventaja competitiva en este sector radica en los recursos de potencia informática, que permiten el acceso a una amplia gama de proveedores, el rápido establecimiento de redes y ofertas de productos fáciles de usar. Los primeros participantes del mercado, como las empresas de computación en la nube y los mineros, están bien posicionados para aprovechar esta oportunidad.
  • Con umbrales de producto bajos y rápidas capacidades de lanzamiento, plataformas establecidas como Render Network y Akash Network han demostrado un crecimiento notable y mantienen una ventaja competitiva.
  • Sin embargo, los nuevos participantes en el mercado enfrentan desafíos con la homogeneidad del producto. La tendencia actual y las barreras de entrada bajas han llevado a una afluencia de proyectos centrados en el poder de cómputo compartido y el arrendamiento. Si bien estas ofertas carecen de diferenciación, hay una creciente necesidad de ventajas competitivas distintas.
  • Los proveedores suelen apuntar a clientes con requisitos informáticos básicos. Por ejemplo, Render Network se especializa en servicios de renderización, mientras que Akash Network ofrece recursos de CPU mejorados. Si bien el arrendamiento de recursos informáticos simples es suficiente para tareas básicas de IA, no cumple con las necesidades integrales de procesos de IA complejos como entrenamiento, ajuste fino e inferencia.
  1. Ofreciendo servicios descentralizados de computación y flujo de trabajo de aprendizaje automático, numerosos proyectos emergentes han asegurado recientemente financiación sustancial, incluidos Gensyn, io.net, Ritual y otros.
  • La computación descentralizada eleva la base de valoración en la industria. Dado que la potencia informática se erige como el relato decisivo en el desarrollo de la inteligencia artificial, los proyectos arraigados en la potencia informática tienden a presumir de modelos de negocio más sólidos y con un mayor potencial, lo que conlleva a valoraciones más altas en comparación con proyectos puramente intermedios.
  • Los servicios de nivel medio establecen ventajas distintivas. Los servicios ofrecidos por la capa intermedia sirven como ventajas competitivas para estas infraestructuras informáticas, abarcando funciones como oráculos y verificadores que facilitan la sincronización de cálculos en cadena y fuera de cadena en la cadena de IA, herramientas de implementación y gestión que respaldan el flujo de trabajo general de IA, y más. El flujo de trabajo de IA se caracteriza por la colaboración, la retroalimentación continua y la alta complejidad, lo que exige una potencia informática en varias etapas. Por lo tanto, una capa de middleware que sea fácil de usar, altamente colaborativa y capaz de satisfacer las complejas necesidades de los desarrolladores de IA emerge como un activo competitivo, especialmente en el dominio Web3, atendiendo a los requisitos de los desarrolladores de Web3 para IA. Estos servicios son más adecuados para los mercados potenciales de aplicaciones de IA, y van más allá del soporte informático básico.
  • Los equipos de proyectos con experiencia profesional en operaciones y mantenimiento en el campo de ML suelen ser esenciales. Los equipos que ofrecen servicios de nivel intermedio deben poseer una comprensión integral de todo el flujo de trabajo de ML para abordar eficazmente los requisitos del ciclo de vida completo de los desarrolladores. Si bien estos servicios a menudo aprovechan los marcos y herramientas de código abierto existentes sin requerir una innovación técnica significativa, exigen un equipo con una amplia experiencia y sólidas capacidades de ingeniería, lo que sirve como una ventaja competitiva para el proyecto.

Ofreciendo servicios a precios más competitivos que los servicios de computación en la nube centralizados, manteniendo instalaciones de soporte y experiencias de usuario comparables, este proyecto ha obtenido reconocimiento de prominentes inversores. Sin embargo, la mayor complejidad técnica plantea un desafío significativo. Actualmente, el proyecto se encuentra en la fase narrativa y de desarrollo, sin un producto totalmente lanzado hasta el momento.

Proyecto representativo

1. Render Network

Render Network es una plataforma de renderizado global basada en blockchain que aprovecha las GPUs distribuidas para ofrecer a los creadores servicios de renderizado 3D rentables y eficientes. Tras la confirmación del creador de los resultados de renderizado, la red blockchain envía recompensas en forma de tokens a los nodos. La plataforma cuenta con una red de programación y asignación distribuida de GPUs, asignando tareas en función del uso del nodo, la reputación y otros factores para optimizar la eficiencia informática, minimizar los recursos inactivos y reducir gastos.

El token nativo de la plataforma, RNDR, sirve como la moneda de pago dentro del ecosistema. Los usuarios pueden utilizar RNDR para liquidar las tarifas de servicio de renderizado, mientras que los proveedores de servicios ganan recompensas RNDR al contribuir con potencia de cómputo para completar tareas de renderizado. El precio de los servicios de renderizado se ajusta dinámicamente en respuesta al uso actual de la red y otras métricas relevantes.

La renderización resulta ser un caso de uso bien adaptado y establecido para la arquitectura de potencia informática distribuida. La naturaleza de las tareas de renderización permite su segmentación en múltiples subtareas ejecutadas en paralelo, minimizando la comunicación e interacción entre tareas. Este enfoque mitiga los inconvenientes de la arquitectura de computación distribuida al aprovechar la extensa red de nodos GPU para impulsar la eficiencia de costos.

La demanda de Render Network es sustancial, con los usuarios habiendo renderizado más de 16 millones de fotogramas y casi 500,000 escenas en la plataforma desde su creación en 2017. El volumen de trabajos de renderizado y nodos activos sigue aumentando. Además, en el primer trimestre de 2023, Render Network introdujo un conjunto de herramientas de IA de Estabilidad integrado nativamente, lo que permite a los usuarios incorporar operaciones de Difusión Estable. Esta expansión más allá de las operaciones de renderizado significa un movimiento estratégico hacia el ámbito de las aplicaciones de IA.

2.Gensyn.ai

Gensyn opera como una red global de clústeres de supercomputación especializada en computación de aprendizaje profundo, utilizando el protocolo L1 de Polkadot. En 2023, la plataforma aseguró $43 millones en financiamiento de la Serie A, liderado por a16z. El marco arquitectónico de Gensyn se extiende más allá del clúster de potencia informática distribuida de la infraestructura para abarcar un sistema de verificación de capa superior. Este sistema garantiza que las extensas computaciones fuera de cadena se alineen con los requisitos en cadena a través de la verificación de blockchain, estableciendo una red de aprendizaje automático sin confianza.

Con respecto al poder de cómputo distribuido, Gensyn acomoda una gama de dispositivos, desde centros de datos con capacidad excedente hasta laptops personales con GPUs potenciales. Une estos dispositivos en un clúster virtual unificado accesible para los desarrolladores para su uso peer-to-peer bajo demanda. Gensyn tiene como objetivo establecer un mercado donde los precios sean dictados por las fuerzas del mercado, fomentando la inclusión y permitiendo que los costos de cómputo de ML alcancen niveles equitativos.

El sistema de verificación se erige como un concepto fundamental para Gensyn, con el objetivo de validar la precisión de las tareas de aprendizaje automático según lo especificado. Introduce un enfoque innovador de verificación que abarca prueba de aprendizaje probabilístico, protocolo de posicionamiento preciso basado en gráficos y Truebit. Estas características técnicas centrales del juego de incentivos ofrecen una eficiencia mejorada en comparación con los métodos tradicionales de validación de blockchain. Los participantes de la red incluyen submitters, solvers, verifiers y whistleblowers, facilitando colectivamente el proceso de verificación.

Basado en los extensos datos de prueba detallados en el libro blanco del protocolo Gensyn, las ventajas notables de la plataforma incluyen:

  • Reducción de costos en el entrenamiento de modelos de IA: El protocolo Gensyn ofrece una capacidad de cálculo equivalente a NVIDIA V100 a un costo estimado de alrededor de $0.40 por hora, lo que representa un ahorro de costos del 80% en comparación con el cálculo bajo demanda de AWS.
  • Eficiencia mejorada en la red de verificación sin confianza: Los resultados de las pruebas descritos en el libro blanco indican una mejora significativa en el tiempo de entrenamiento del modelo utilizando el protocolo Gensyn. El tiempo adicional ha experimentado una mejora notable del 1,350% en comparación con la replicación de Truebit y una mejora extraordinaria del 2,522,477% en comparación con Ethereum.

Sin embargo, de forma concurrente, la potencia informática distribuida introduce un aumento inevitable en el tiempo de entrenamiento en comparación con el entrenamiento local, atribuido a desafíos de comunicación y de red. Según los datos de prueba, el protocolo Gensyn incurre en aproximadamente un 46% de sobrecarga de tiempo en el entrenamiento del modelo.

3. Red Akash

Akash Network funciona como una plataforma de computación en la nube distribuida que integra varios elementos técnicos para permitir a los usuarios implementar y gestionar aplicaciones de manera eficiente dentro de un entorno de nube descentralizada. En esencia, ofrece a los usuarios la capacidad de arrendar recursos informáticos distribuidos.

En el núcleo de Akash se encuentra una red de proveedores de servicios de infraestructura dispersos globalmente, que ofrecen recursos de CPU, GPU, memoria y almacenamiento. Estos proveedores suministran recursos para el arrendamiento de usuarios a través del clúster de Kubernetes superior. Los usuarios pueden implementar aplicaciones como contenedores Docker para aprovechar servicios de infraestructura rentables. Además, Akash implementa un enfoque de "subasta inversa" para seguir reduciendo los precios de los recursos. Según estimaciones en el sitio web oficial de Akash, los costos de servicio de la plataforma son aproximadamente un 80% más bajos que los de los servidores centralizados.

4.io.net

io.net se presenta como una red informática descentralizada que interconecta GPUs distribuidas globalmente para proporcionar soporte computacional para el entrenamiento y razonamiento de modelos de IA. Recientemente concluyendo una ronda de financiación de Serie A de $30 millones, la plataforma ahora cuenta con una valoración de $1 mil millones.

Distinguido de plataformas como Render y Akash, io.net emerge como una red informática descentralizada robusta y escalable, intrincadamente vinculada a múltiples niveles de herramientas para desarrolladores. Sus características clave abarcan:

  • Agregación de diversos recursos informáticos: Acceso a GPUs de centros de datos independientes, mineros de criptomonedas y proyectos como Filecoin y Render.
  • Soporte principal para los requisitos de IA: Las capacidades de servicio esenciales abarcan la inferencia por lotes y el servicio de modelos, el entrenamiento paralelo, la sintonización de hiperparámetros y el aprendizaje por refuerzo.
  • Pila de tecnología avanzada para flujos de trabajo mejorados en entornos de nube: que abarca una variedad de herramientas de orquestación, marcos de aprendizaje automático para la asignación de recursos informáticos, ejecución de algoritmos, entrenamiento de modelos, operaciones de inferencia, soluciones de almacenamiento de datos, monitoreo de GPU y herramientas de gestión.
  • Capacidades de Computación Paralela: Integración de Ray, un marco de computación distribuida de código abierto, aprovechando el paralelismo inherente de Ray para paralelizar sin esfuerzo funciones de Python para la ejecución dinámica de tareas. Su almacenamiento en memoria facilita el intercambio rápido de datos entre tareas, eliminando los retrasos de serialización. Además, io.net se extiende más allá de Python al integrar otros marcos de ML prominentes como PyTorch y TensorFlow, mejorando la escalabilidad.

En cuanto a los precios, el sitio web oficial de io.net estima que sus tarifas serán aproximadamente un 90% más bajas que las de los servicios de computación en la nube centralizados.

Además, el token nativo de io.net, IO coin, servirá principalmente como mecanismo de pago y recompensas dentro del ecosistema. Alternativamente, los demandantes pueden adoptar un modelo similar a Helium convirtiendo IO coin en la moneda estable "puntos IOSD" para transacciones.

Descargo de responsabilidad:

  1. Este artículo es reimpreso de [GateBlockchain Wanxiang], el título original es “AI+Web3 Future Development Road (2) ): Infraestructura”, los derechos de autor pertenecen al autor original [Blockchain Wanxiang]. Si hay objeciones a esta reimpresión, por favor contacte al Equipo de Aprendizaje de Gate, y lo manejarán rápidamente.

  2. Descargo de responsabilidad: Las opiniones expresadas en este artículo son únicamente del autor y no constituyen ningún consejo de inversión.

  3. Las traducciones del artículo a otros idiomas son realizadas por el equipo de Gate Learn. Sin mencionarGate.io, el artículo traducido no puede ser reproducido, distribuido o plagiado.

Explicación detallada de la infraestructura de AI+Web3

Intermedio3/29/2024, 7:41:47 PM
Los principales proyectos en la capa de infraestructura de la industria AI+Web3 básicamente toman la red de computación descentralizada como la narrativa principal, el bajo costo como la ventaja principal, los incentivos de token como la principal forma de expandir la red, y servir a los clientes AI+Web3 como el objetivo principal.

Título original reenviado: AI+Web3 Future Development Path (2): Capítulo de Infraestructura

La infraestructura es la dirección determinista de crecimiento del desarrollo de la IA

1. Demanda creciente de computación AI

En los últimos años, la demanda de potencia informática ha experimentado un crecimiento rápido, especialmente tras la aparición del gran modelo LLM. Esta oleada de demanda de potencia informática para IA ha impactado significativamente en el mercado de computación de alto rendimiento. Los datos de OpenAI revelan una tendencia notable desde 2012, con la potencia informática utilizada para entrenar los modelos de IA más grandes creciendo exponencialmente, duplicándose cada 3-4 meses en promedio, superando la tasa de crecimiento predicha por la Ley de Moore. La creciente demanda de aplicaciones de IA ha resultado en un rápido aumento en la necesidad de hardware informático. Las proyecciones indican que para 2025, se espera que la demanda de hardware informático impulsada por aplicaciones de IA aumente aproximadamente un 10% a 15%.

Impulsado por la demanda de potencia informática de IA, el fabricante de hardware de GPU NVIDIA ha presenciado un crecimiento continuo en los ingresos del centro de datos. En el segundo trimestre de 2023, los ingresos del centro de datos alcanzaron los $10.32 mil millones, lo que marca un aumento del 141% respecto al primer trimestre de 2023 y un notable aumento del 171% respecto al mismo período del año anterior. Para el cuarto trimestre del año fiscal 2024, el segmento del centro de datos representó más del 83% de los ingresos totales, experimentando un crecimiento simultáneo del 409%, con un 40% atribuido a escenarios de inferencia de modelos grandes, lo que indica una sólida demanda de potencia informática de alto rendimiento.

Simultáneamente, la necesidad de vastas cantidades de datos impone requisitos significativos en el almacenamiento y la memoria del hardware. Especialmente durante la fase de entrenamiento del modelo, son esenciales entradas de parámetros extensas y almacenamiento de datos. Los chips de memoria utilizados en servidores de IA incluyen predominantemente memoria de alta velocidad (HBM), DRAM y SSD. Los entornos de trabajo para servidores de IA deben ofrecer mayor capacidad, rendimiento mejorado, latencia reducida y tiempos de respuesta más rápidos. Según los cálculos de Micron, la cantidad de DRAM en servidores de IA excede en ocho veces a la de servidores tradicionales, mientras que la cantidad de NAND supera los estándares tradicionales de servidores en tres veces.

2. El desequilibrio entre la oferta y la demanda impulsa los costos de la potencia informática

Normalmente, la potencia informática se utiliza principalmente en las etapas de entrenamiento, ajuste fino e inferencia de los modelos de IA, especialmente durante las fases de entrenamiento y ajuste fino. Debido al aumento de los parámetros de entrada de datos, los requisitos computacionales y la creciente demanda de interconectividad en la computación en paralelo, hay una necesidad de hardware de GPU más potente e interconectado, a menudo en forma de clústeres de GPU de alto rendimiento. A medida que los modelos grandes evolucionan, la complejidad computacional aumenta linealmente, lo que requiere hardware más avanzado para satisfacer las demandas del entrenamiento del modelo.

Tomando GPT-3 como ejemplo, con un escenario que involucra alrededor de 13 millones de visitas de usuarios independientes, la demanda de chips correspondiente superaría las 30,000 GPU A100. Este costo de inversión inicial alcanzaría la asombrosa cifra de $800 millones, con costos estimados de inferencia de modelo diarios que rondan los $700,000.

Al mismo tiempo, los informes de la industria indican que en el cuarto trimestre de 2023, el suministro de GPU de NVIDIA se vio severamente restringido a nivel mundial, lo que provocó un desequilibrio notable entre la oferta y la demanda en los mercados de todo el mundo. La capacidad de producción de NVIDIA se vio limitada por factores como TSMC, HBM, el empaquetado CoWos, y se espera que el 'grave problema de escasez' de la GPU H100 persista al menos hasta finales de 2024.

Por lo tanto, el aumento en la demanda de GPUs de alta gama y las restricciones de suministro han impulsado los precios desorbitados de componentes de hardware actuales como las GPUs. Especialmente para empresas como NVIDIA que ocupan una posición central en la cadena de la industria, los altos precios son aún más elevados debido a su dominio monopolístico, lo que les permite obtener dividendos de valor adicionales. Por ejemplo, el costo material de la tarjeta aceleradora de inteligencia artificial H100 de NVIDIA es de aproximadamente $3,000, sin embargo, su precio de venta alcanzó alrededor de $35,000 a mediados de 2023 e incluso superó los $40,000 en eBay.

3. La infraestructura de inteligencia artificial impulsa el crecimiento de la cadena de la industria

Un informe de Grand View Research indica que el tamaño del mercado global de IA en la nube se estimó en $62.63 mil millones en 2023, con proyección de alcanzar $647.6 mil millones para 2030, con una tasa de crecimiento anual compuesta del 39.6%. Estas cifras subrayan el significativo potencial de crecimiento de los servicios de IA en la nube y su contribución sustancial a la cadena global de la industria de la IA.

Según las estimaciones de a16z, una parte sustancial de los fondos en el mercado de AIGC (Inteligencia Artificial y Computación Global) fluye en última instancia hacia empresas de infraestructura. En promedio, las empresas de aplicaciones destinan aproximadamente del 20 al 40 % de sus ingresos a inferencias y ajustes finos para cada cliente. Este gasto se dirige típicamente al proveedor de la nube de la instancia de cómputo o a un proveedor de modelos de terceros, que a su vez dedica alrededor de la mitad de los ingresos a la infraestructura en la nube. En consecuencia, es razonable suponer que del 10 al 20 % de los ingresos totales generados por AIGC se canalizan hacia los proveedores de la nube.

Además, una parte significativa de la demanda de potencia informática se centra en el entrenamiento de grandes modelos de IA, incluidos varios modelos extensos de LLM. Especialmente para las startups de modelos, el 80-90% de los costos se atribuyen a la potencia informática de IA. En conjunto, se espera que la infraestructura informática de IA, que abarca la informática en la nube y el hardware, represente más del 50% del valor inicial del mercado.

Computación descentralizada de IA

Como se discutió anteriormente, el costo actual de la computación de IA centralizada sigue siendo alto, principalmente debido a la creciente demanda de infraestructura de alto rendimiento para el entrenamiento de IA. Sin embargo, existe una cantidad significativa de potencia de cómputo inactiva en el mercado, lo que lleva a un desajuste entre la oferta y la demanda. Los factores clave que contribuyen a este desequilibrio incluyen:

  • Limitado por la memoria, la complejidad del modelo no tiene una relación de crecimiento lineal con la cantidad de GPUs requeridos. Las GPUs actuales tienen ventajas en la potencia de cálculo, pero el entrenamiento del modelo requiere que una gran cantidad de parámetros se almacene en la memoria. Por ejemplo, para GPT-3, con el fin de entrenar un modelo con 175 mil millones de parámetros, se necesita más de 1 terabyte de datos para ser almacenados en la memoria, más que cualquier GPU disponible hoy en día, lo que requiere más GPUs para la computación y el almacenamiento en paralelo, lo que a su vez llevará a una potencia de cálculo de la GPU inactiva. Por ejemplo, desde GPT3 a GPT4, el tamaño de los parámetros del modelo aumentó aproximadamente 10 veces, pero el número de GPUs requeridos aumentó 24 veces (sin tener en cuenta el aumento en el tiempo de entrenamiento del modelo). Según el análisis relevante, OpenAI utilizó aproximadamente 2.15e25 FLOPS en el entrenamiento de GPT-4, y realizó el entrenamiento en aproximadamente 25,000 GPUs A100 durante 90 a 100 días, con una utilización de la potencia de cálculo de aproximadamente 32% a 36%.

Ante los desafíos mencionados anteriormente, la búsqueda de diseñar chips de alto rendimiento o chips ASIC especializados adaptados para tareas de IA es un camino destacado que están explorando numerosos desarrolladores y grandes empresas. Otro enfoque implica la utilización integral de los recursos informáticos existentes para establecer una red de computación distribuida, con el objetivo de reducir los costos de energía informática mediante el arrendamiento, el intercambio y la programación eficiente de recursos. Además, el mercado actualmente cuenta con un excedente de GPUs y CPUs de consumo inactivo. Si bien las unidades individuales pueden carecer de una potencia de computación sólida, pueden satisfacer eficazmente los requisitos computacionales existentes en escenarios específicos o cuando se integran con chips de alto rendimiento. Es crucial garantizar un suministro suficiente, ya que los costos pueden reducirse aún más mediante la programación de redes distribuidas.

En consecuencia, el cambio hacia la potencia informática distribuida ha surgido como una dirección clave en el avance de la infraestructura de IA. Al mismo tiempo, dada la alineación conceptual entre Web3 y sistemas distribuidos, las redes de potencia informática descentralizada se han convertido en un enfoque principal en el panorama de la infraestructura Web3+AI. Actualmente, las plataformas de potencia informática descentralizada en el mercado Web3 generalmente ofrecen precios que son un 80%-90% más bajos que los servicios de computación en la nube centralizados.

Si bien el almacenamiento juega un papel vital en la infraestructura de IA, el almacenamiento centralizado tiene ventajas distintas en cuanto a escala, usabilidad y baja latencia. Sin embargo, debido a las notables eficiencias de costos que ofrecen, las redes de computación distribuida tienen un potencial de mercado significativo y están en condiciones de cosechar beneficios sustanciales de la expansión del mercado de IA en auge.

  • La inferencia de modelos y el entrenamiento de modelos pequeños representan los escenarios fundamentales para la potencia de computación distribuida actual. La dispersión de recursos informáticos en sistemas distribuidos introduce inevitablemente desafíos de comunicación entre las GPUs, lo que potencialmente conduce a una reducción del rendimiento informático. En consecuencia, la potencia de computación distribuida es más adecuada para escenarios que requieren una comunicación mínima y pueden respaldar eficazmente tareas paralelas. Estos escenarios incluyen la fase de inferencia de modelos de IA extensos y modelos pequeños con relativamente menos parámetros, minimizando los impactos en el rendimiento. Mirando hacia el futuro, a medida que evolucionan las aplicaciones de IA, el razonamiento surge como un requisito crítico en la capa de aplicación. Dado que la mayoría de las empresas carecen de la capacidad para entrenar grandes modelos de forma independiente, la potencia de computación distribuida conserva un significativo potencial de mercado a largo plazo.
  • Hay un aumento en los marcos de entrenamiento distribuido de alto rendimiento diseñados para la computación paralela a gran escala. Marcos innovadores de computación distribuida de código abierto como PyTorch, Ray y DeepSpeed están brindando a los desarrolladores un sólido soporte fundamental para aprovechar la potencia de cálculo distribuido en el entrenamiento de modelos. Este avance mejora la aplicabilidad de la potencia de cálculo distribuido en el futuro mercado de la inteligencia artificial, facilitando su integración en diversas aplicaciones de IA.

La lógica narrativa de los proyectos de infraestructura AI+Web3

El sector de infraestructura de IA distribuida presenta una demanda robusta y perspectivas de crecimiento significativas a largo plazo, lo que lo convierte en un área atractiva para el capital de inversión. Actualmente, los proyectos principales dentro de la capa de infraestructura de la industria AI+Web3 se centran predominantemente en redes de computación descentralizadas. Estos proyectos enfatizan los costos bajos como una ventaja clave, utilizan incentivos de tokens para expandir sus redes y priorizan servir a la clientela de AI+Web3 como su objetivo principal. Este sector comprende principalmente dos niveles clave:

  1. Una plataforma relativamente pura de intercambio y alquiler de recursos informáticos en la nube descentralizada: Proyectos de IA tempranos como Render Network, Akash Network, entre otros, entran en esta categoría.
  • El principal punto de ventaja competitiva en este sector radica en los recursos de potencia informática, que permiten el acceso a una amplia gama de proveedores, el rápido establecimiento de redes y ofertas de productos fáciles de usar. Los primeros participantes del mercado, como las empresas de computación en la nube y los mineros, están bien posicionados para aprovechar esta oportunidad.
  • Con umbrales de producto bajos y rápidas capacidades de lanzamiento, plataformas establecidas como Render Network y Akash Network han demostrado un crecimiento notable y mantienen una ventaja competitiva.
  • Sin embargo, los nuevos participantes en el mercado enfrentan desafíos con la homogeneidad del producto. La tendencia actual y las barreras de entrada bajas han llevado a una afluencia de proyectos centrados en el poder de cómputo compartido y el arrendamiento. Si bien estas ofertas carecen de diferenciación, hay una creciente necesidad de ventajas competitivas distintas.
  • Los proveedores suelen apuntar a clientes con requisitos informáticos básicos. Por ejemplo, Render Network se especializa en servicios de renderización, mientras que Akash Network ofrece recursos de CPU mejorados. Si bien el arrendamiento de recursos informáticos simples es suficiente para tareas básicas de IA, no cumple con las necesidades integrales de procesos de IA complejos como entrenamiento, ajuste fino e inferencia.
  1. Ofreciendo servicios descentralizados de computación y flujo de trabajo de aprendizaje automático, numerosos proyectos emergentes han asegurado recientemente financiación sustancial, incluidos Gensyn, io.net, Ritual y otros.
  • La computación descentralizada eleva la base de valoración en la industria. Dado que la potencia informática se erige como el relato decisivo en el desarrollo de la inteligencia artificial, los proyectos arraigados en la potencia informática tienden a presumir de modelos de negocio más sólidos y con un mayor potencial, lo que conlleva a valoraciones más altas en comparación con proyectos puramente intermedios.
  • Los servicios de nivel medio establecen ventajas distintivas. Los servicios ofrecidos por la capa intermedia sirven como ventajas competitivas para estas infraestructuras informáticas, abarcando funciones como oráculos y verificadores que facilitan la sincronización de cálculos en cadena y fuera de cadena en la cadena de IA, herramientas de implementación y gestión que respaldan el flujo de trabajo general de IA, y más. El flujo de trabajo de IA se caracteriza por la colaboración, la retroalimentación continua y la alta complejidad, lo que exige una potencia informática en varias etapas. Por lo tanto, una capa de middleware que sea fácil de usar, altamente colaborativa y capaz de satisfacer las complejas necesidades de los desarrolladores de IA emerge como un activo competitivo, especialmente en el dominio Web3, atendiendo a los requisitos de los desarrolladores de Web3 para IA. Estos servicios son más adecuados para los mercados potenciales de aplicaciones de IA, y van más allá del soporte informático básico.
  • Los equipos de proyectos con experiencia profesional en operaciones y mantenimiento en el campo de ML suelen ser esenciales. Los equipos que ofrecen servicios de nivel intermedio deben poseer una comprensión integral de todo el flujo de trabajo de ML para abordar eficazmente los requisitos del ciclo de vida completo de los desarrolladores. Si bien estos servicios a menudo aprovechan los marcos y herramientas de código abierto existentes sin requerir una innovación técnica significativa, exigen un equipo con una amplia experiencia y sólidas capacidades de ingeniería, lo que sirve como una ventaja competitiva para el proyecto.

Ofreciendo servicios a precios más competitivos que los servicios de computación en la nube centralizados, manteniendo instalaciones de soporte y experiencias de usuario comparables, este proyecto ha obtenido reconocimiento de prominentes inversores. Sin embargo, la mayor complejidad técnica plantea un desafío significativo. Actualmente, el proyecto se encuentra en la fase narrativa y de desarrollo, sin un producto totalmente lanzado hasta el momento.

Proyecto representativo

1. Render Network

Render Network es una plataforma de renderizado global basada en blockchain que aprovecha las GPUs distribuidas para ofrecer a los creadores servicios de renderizado 3D rentables y eficientes. Tras la confirmación del creador de los resultados de renderizado, la red blockchain envía recompensas en forma de tokens a los nodos. La plataforma cuenta con una red de programación y asignación distribuida de GPUs, asignando tareas en función del uso del nodo, la reputación y otros factores para optimizar la eficiencia informática, minimizar los recursos inactivos y reducir gastos.

El token nativo de la plataforma, RNDR, sirve como la moneda de pago dentro del ecosistema. Los usuarios pueden utilizar RNDR para liquidar las tarifas de servicio de renderizado, mientras que los proveedores de servicios ganan recompensas RNDR al contribuir con potencia de cómputo para completar tareas de renderizado. El precio de los servicios de renderizado se ajusta dinámicamente en respuesta al uso actual de la red y otras métricas relevantes.

La renderización resulta ser un caso de uso bien adaptado y establecido para la arquitectura de potencia informática distribuida. La naturaleza de las tareas de renderización permite su segmentación en múltiples subtareas ejecutadas en paralelo, minimizando la comunicación e interacción entre tareas. Este enfoque mitiga los inconvenientes de la arquitectura de computación distribuida al aprovechar la extensa red de nodos GPU para impulsar la eficiencia de costos.

La demanda de Render Network es sustancial, con los usuarios habiendo renderizado más de 16 millones de fotogramas y casi 500,000 escenas en la plataforma desde su creación en 2017. El volumen de trabajos de renderizado y nodos activos sigue aumentando. Además, en el primer trimestre de 2023, Render Network introdujo un conjunto de herramientas de IA de Estabilidad integrado nativamente, lo que permite a los usuarios incorporar operaciones de Difusión Estable. Esta expansión más allá de las operaciones de renderizado significa un movimiento estratégico hacia el ámbito de las aplicaciones de IA.

2.Gensyn.ai

Gensyn opera como una red global de clústeres de supercomputación especializada en computación de aprendizaje profundo, utilizando el protocolo L1 de Polkadot. En 2023, la plataforma aseguró $43 millones en financiamiento de la Serie A, liderado por a16z. El marco arquitectónico de Gensyn se extiende más allá del clúster de potencia informática distribuida de la infraestructura para abarcar un sistema de verificación de capa superior. Este sistema garantiza que las extensas computaciones fuera de cadena se alineen con los requisitos en cadena a través de la verificación de blockchain, estableciendo una red de aprendizaje automático sin confianza.

Con respecto al poder de cómputo distribuido, Gensyn acomoda una gama de dispositivos, desde centros de datos con capacidad excedente hasta laptops personales con GPUs potenciales. Une estos dispositivos en un clúster virtual unificado accesible para los desarrolladores para su uso peer-to-peer bajo demanda. Gensyn tiene como objetivo establecer un mercado donde los precios sean dictados por las fuerzas del mercado, fomentando la inclusión y permitiendo que los costos de cómputo de ML alcancen niveles equitativos.

El sistema de verificación se erige como un concepto fundamental para Gensyn, con el objetivo de validar la precisión de las tareas de aprendizaje automático según lo especificado. Introduce un enfoque innovador de verificación que abarca prueba de aprendizaje probabilístico, protocolo de posicionamiento preciso basado en gráficos y Truebit. Estas características técnicas centrales del juego de incentivos ofrecen una eficiencia mejorada en comparación con los métodos tradicionales de validación de blockchain. Los participantes de la red incluyen submitters, solvers, verifiers y whistleblowers, facilitando colectivamente el proceso de verificación.

Basado en los extensos datos de prueba detallados en el libro blanco del protocolo Gensyn, las ventajas notables de la plataforma incluyen:

  • Reducción de costos en el entrenamiento de modelos de IA: El protocolo Gensyn ofrece una capacidad de cálculo equivalente a NVIDIA V100 a un costo estimado de alrededor de $0.40 por hora, lo que representa un ahorro de costos del 80% en comparación con el cálculo bajo demanda de AWS.
  • Eficiencia mejorada en la red de verificación sin confianza: Los resultados de las pruebas descritos en el libro blanco indican una mejora significativa en el tiempo de entrenamiento del modelo utilizando el protocolo Gensyn. El tiempo adicional ha experimentado una mejora notable del 1,350% en comparación con la replicación de Truebit y una mejora extraordinaria del 2,522,477% en comparación con Ethereum.

Sin embargo, de forma concurrente, la potencia informática distribuida introduce un aumento inevitable en el tiempo de entrenamiento en comparación con el entrenamiento local, atribuido a desafíos de comunicación y de red. Según los datos de prueba, el protocolo Gensyn incurre en aproximadamente un 46% de sobrecarga de tiempo en el entrenamiento del modelo.

3. Red Akash

Akash Network funciona como una plataforma de computación en la nube distribuida que integra varios elementos técnicos para permitir a los usuarios implementar y gestionar aplicaciones de manera eficiente dentro de un entorno de nube descentralizada. En esencia, ofrece a los usuarios la capacidad de arrendar recursos informáticos distribuidos.

En el núcleo de Akash se encuentra una red de proveedores de servicios de infraestructura dispersos globalmente, que ofrecen recursos de CPU, GPU, memoria y almacenamiento. Estos proveedores suministran recursos para el arrendamiento de usuarios a través del clúster de Kubernetes superior. Los usuarios pueden implementar aplicaciones como contenedores Docker para aprovechar servicios de infraestructura rentables. Además, Akash implementa un enfoque de "subasta inversa" para seguir reduciendo los precios de los recursos. Según estimaciones en el sitio web oficial de Akash, los costos de servicio de la plataforma son aproximadamente un 80% más bajos que los de los servidores centralizados.

4.io.net

io.net se presenta como una red informática descentralizada que interconecta GPUs distribuidas globalmente para proporcionar soporte computacional para el entrenamiento y razonamiento de modelos de IA. Recientemente concluyendo una ronda de financiación de Serie A de $30 millones, la plataforma ahora cuenta con una valoración de $1 mil millones.

Distinguido de plataformas como Render y Akash, io.net emerge como una red informática descentralizada robusta y escalable, intrincadamente vinculada a múltiples niveles de herramientas para desarrolladores. Sus características clave abarcan:

  • Agregación de diversos recursos informáticos: Acceso a GPUs de centros de datos independientes, mineros de criptomonedas y proyectos como Filecoin y Render.
  • Soporte principal para los requisitos de IA: Las capacidades de servicio esenciales abarcan la inferencia por lotes y el servicio de modelos, el entrenamiento paralelo, la sintonización de hiperparámetros y el aprendizaje por refuerzo.
  • Pila de tecnología avanzada para flujos de trabajo mejorados en entornos de nube: que abarca una variedad de herramientas de orquestación, marcos de aprendizaje automático para la asignación de recursos informáticos, ejecución de algoritmos, entrenamiento de modelos, operaciones de inferencia, soluciones de almacenamiento de datos, monitoreo de GPU y herramientas de gestión.
  • Capacidades de Computación Paralela: Integración de Ray, un marco de computación distribuida de código abierto, aprovechando el paralelismo inherente de Ray para paralelizar sin esfuerzo funciones de Python para la ejecución dinámica de tareas. Su almacenamiento en memoria facilita el intercambio rápido de datos entre tareas, eliminando los retrasos de serialización. Además, io.net se extiende más allá de Python al integrar otros marcos de ML prominentes como PyTorch y TensorFlow, mejorando la escalabilidad.

En cuanto a los precios, el sitio web oficial de io.net estima que sus tarifas serán aproximadamente un 90% más bajas que las de los servicios de computación en la nube centralizados.

Además, el token nativo de io.net, IO coin, servirá principalmente como mecanismo de pago y recompensas dentro del ecosistema. Alternativamente, los demandantes pueden adoptar un modelo similar a Helium convirtiendo IO coin en la moneda estable "puntos IOSD" para transacciones.

Descargo de responsabilidad:

  1. Este artículo es reimpreso de [GateBlockchain Wanxiang], el título original es “AI+Web3 Future Development Road (2) ): Infraestructura”, los derechos de autor pertenecen al autor original [Blockchain Wanxiang]. Si hay objeciones a esta reimpresión, por favor contacte al Equipo de Aprendizaje de Gate, y lo manejarán rápidamente.

  2. Descargo de responsabilidad: Las opiniones expresadas en este artículo son únicamente del autor y no constituyen ningún consejo de inversión.

  3. Las traducciones del artículo a otros idiomas son realizadas por el equipo de Gate Learn. Sin mencionarGate.io, el artículo traducido no puede ser reproducido, distribuido o plagiado.

即刻开始交易
注册并交易即可获得
$100
和价值
$5500
理财体验金奖励!