Título original reenviado: AI+Web3 Future Development Path (2): Capítulo de Infraestructura
En los últimos años, la demanda de potencia informática ha experimentado un crecimiento rápido, especialmente tras la aparición del gran modelo LLM. Esta oleada de demanda de potencia informática para IA ha impactado significativamente en el mercado de computación de alto rendimiento. Los datos de OpenAI revelan una tendencia notable desde 2012, con la potencia informática utilizada para entrenar los modelos de IA más grandes creciendo exponencialmente, duplicándose cada 3-4 meses en promedio, superando la tasa de crecimiento predicha por la Ley de Moore. La creciente demanda de aplicaciones de IA ha resultado en un rápido aumento en la necesidad de hardware informático. Las proyecciones indican que para 2025, se espera que la demanda de hardware informático impulsada por aplicaciones de IA aumente aproximadamente un 10% a 15%.
Impulsado por la demanda de potencia informática de IA, el fabricante de hardware de GPU NVIDIA ha presenciado un crecimiento continuo en los ingresos del centro de datos. En el segundo trimestre de 2023, los ingresos del centro de datos alcanzaron los $10.32 mil millones, lo que marca un aumento del 141% respecto al primer trimestre de 2023 y un notable aumento del 171% respecto al mismo período del año anterior. Para el cuarto trimestre del año fiscal 2024, el segmento del centro de datos representó más del 83% de los ingresos totales, experimentando un crecimiento simultáneo del 409%, con un 40% atribuido a escenarios de inferencia de modelos grandes, lo que indica una sólida demanda de potencia informática de alto rendimiento.
Simultáneamente, la necesidad de vastas cantidades de datos impone requisitos significativos en el almacenamiento y la memoria del hardware. Especialmente durante la fase de entrenamiento del modelo, son esenciales entradas de parámetros extensas y almacenamiento de datos. Los chips de memoria utilizados en servidores de IA incluyen predominantemente memoria de alta velocidad (HBM), DRAM y SSD. Los entornos de trabajo para servidores de IA deben ofrecer mayor capacidad, rendimiento mejorado, latencia reducida y tiempos de respuesta más rápidos. Según los cálculos de Micron, la cantidad de DRAM en servidores de IA excede en ocho veces a la de servidores tradicionales, mientras que la cantidad de NAND supera los estándares tradicionales de servidores en tres veces.
Normalmente, la potencia informática se utiliza principalmente en las etapas de entrenamiento, ajuste fino e inferencia de los modelos de IA, especialmente durante las fases de entrenamiento y ajuste fino. Debido al aumento de los parámetros de entrada de datos, los requisitos computacionales y la creciente demanda de interconectividad en la computación en paralelo, hay una necesidad de hardware de GPU más potente e interconectado, a menudo en forma de clústeres de GPU de alto rendimiento. A medida que los modelos grandes evolucionan, la complejidad computacional aumenta linealmente, lo que requiere hardware más avanzado para satisfacer las demandas del entrenamiento del modelo.
Tomando GPT-3 como ejemplo, con un escenario que involucra alrededor de 13 millones de visitas de usuarios independientes, la demanda de chips correspondiente superaría las 30,000 GPU A100. Este costo de inversión inicial alcanzaría la asombrosa cifra de $800 millones, con costos estimados de inferencia de modelo diarios que rondan los $700,000.
Al mismo tiempo, los informes de la industria indican que en el cuarto trimestre de 2023, el suministro de GPU de NVIDIA se vio severamente restringido a nivel mundial, lo que provocó un desequilibrio notable entre la oferta y la demanda en los mercados de todo el mundo. La capacidad de producción de NVIDIA se vio limitada por factores como TSMC, HBM, el empaquetado CoWos, y se espera que el 'grave problema de escasez' de la GPU H100 persista al menos hasta finales de 2024.
Por lo tanto, el aumento en la demanda de GPUs de alta gama y las restricciones de suministro han impulsado los precios desorbitados de componentes de hardware actuales como las GPUs. Especialmente para empresas como NVIDIA que ocupan una posición central en la cadena de la industria, los altos precios son aún más elevados debido a su dominio monopolístico, lo que les permite obtener dividendos de valor adicionales. Por ejemplo, el costo material de la tarjeta aceleradora de inteligencia artificial H100 de NVIDIA es de aproximadamente $3,000, sin embargo, su precio de venta alcanzó alrededor de $35,000 a mediados de 2023 e incluso superó los $40,000 en eBay.
Un informe de Grand View Research indica que el tamaño del mercado global de IA en la nube se estimó en $62.63 mil millones en 2023, con proyección de alcanzar $647.6 mil millones para 2030, con una tasa de crecimiento anual compuesta del 39.6%. Estas cifras subrayan el significativo potencial de crecimiento de los servicios de IA en la nube y su contribución sustancial a la cadena global de la industria de la IA.
Según las estimaciones de a16z, una parte sustancial de los fondos en el mercado de AIGC (Inteligencia Artificial y Computación Global) fluye en última instancia hacia empresas de infraestructura. En promedio, las empresas de aplicaciones destinan aproximadamente del 20 al 40 % de sus ingresos a inferencias y ajustes finos para cada cliente. Este gasto se dirige típicamente al proveedor de la nube de la instancia de cómputo o a un proveedor de modelos de terceros, que a su vez dedica alrededor de la mitad de los ingresos a la infraestructura en la nube. En consecuencia, es razonable suponer que del 10 al 20 % de los ingresos totales generados por AIGC se canalizan hacia los proveedores de la nube.
Además, una parte significativa de la demanda de potencia informática se centra en el entrenamiento de grandes modelos de IA, incluidos varios modelos extensos de LLM. Especialmente para las startups de modelos, el 80-90% de los costos se atribuyen a la potencia informática de IA. En conjunto, se espera que la infraestructura informática de IA, que abarca la informática en la nube y el hardware, represente más del 50% del valor inicial del mercado.
Como se discutió anteriormente, el costo actual de la computación de IA centralizada sigue siendo alto, principalmente debido a la creciente demanda de infraestructura de alto rendimiento para el entrenamiento de IA. Sin embargo, existe una cantidad significativa de potencia de cómputo inactiva en el mercado, lo que lleva a un desajuste entre la oferta y la demanda. Los factores clave que contribuyen a este desequilibrio incluyen:
Ante los desafíos mencionados anteriormente, la búsqueda de diseñar chips de alto rendimiento o chips ASIC especializados adaptados para tareas de IA es un camino destacado que están explorando numerosos desarrolladores y grandes empresas. Otro enfoque implica la utilización integral de los recursos informáticos existentes para establecer una red de computación distribuida, con el objetivo de reducir los costos de energía informática mediante el arrendamiento, el intercambio y la programación eficiente de recursos. Además, el mercado actualmente cuenta con un excedente de GPUs y CPUs de consumo inactivo. Si bien las unidades individuales pueden carecer de una potencia de computación sólida, pueden satisfacer eficazmente los requisitos computacionales existentes en escenarios específicos o cuando se integran con chips de alto rendimiento. Es crucial garantizar un suministro suficiente, ya que los costos pueden reducirse aún más mediante la programación de redes distribuidas.
En consecuencia, el cambio hacia la potencia informática distribuida ha surgido como una dirección clave en el avance de la infraestructura de IA. Al mismo tiempo, dada la alineación conceptual entre Web3 y sistemas distribuidos, las redes de potencia informática descentralizada se han convertido en un enfoque principal en el panorama de la infraestructura Web3+AI. Actualmente, las plataformas de potencia informática descentralizada en el mercado Web3 generalmente ofrecen precios que son un 80%-90% más bajos que los servicios de computación en la nube centralizados.
Si bien el almacenamiento juega un papel vital en la infraestructura de IA, el almacenamiento centralizado tiene ventajas distintas en cuanto a escala, usabilidad y baja latencia. Sin embargo, debido a las notables eficiencias de costos que ofrecen, las redes de computación distribuida tienen un potencial de mercado significativo y están en condiciones de cosechar beneficios sustanciales de la expansión del mercado de IA en auge.
El sector de infraestructura de IA distribuida presenta una demanda robusta y perspectivas de crecimiento significativas a largo plazo, lo que lo convierte en un área atractiva para el capital de inversión. Actualmente, los proyectos principales dentro de la capa de infraestructura de la industria AI+Web3 se centran predominantemente en redes de computación descentralizadas. Estos proyectos enfatizan los costos bajos como una ventaja clave, utilizan incentivos de tokens para expandir sus redes y priorizan servir a la clientela de AI+Web3 como su objetivo principal. Este sector comprende principalmente dos niveles clave:
Ofreciendo servicios a precios más competitivos que los servicios de computación en la nube centralizados, manteniendo instalaciones de soporte y experiencias de usuario comparables, este proyecto ha obtenido reconocimiento de prominentes inversores. Sin embargo, la mayor complejidad técnica plantea un desafío significativo. Actualmente, el proyecto se encuentra en la fase narrativa y de desarrollo, sin un producto totalmente lanzado hasta el momento.
Render Network es una plataforma de renderizado global basada en blockchain que aprovecha las GPUs distribuidas para ofrecer a los creadores servicios de renderizado 3D rentables y eficientes. Tras la confirmación del creador de los resultados de renderizado, la red blockchain envía recompensas en forma de tokens a los nodos. La plataforma cuenta con una red de programación y asignación distribuida de GPUs, asignando tareas en función del uso del nodo, la reputación y otros factores para optimizar la eficiencia informática, minimizar los recursos inactivos y reducir gastos.
El token nativo de la plataforma, RNDR, sirve como la moneda de pago dentro del ecosistema. Los usuarios pueden utilizar RNDR para liquidar las tarifas de servicio de renderizado, mientras que los proveedores de servicios ganan recompensas RNDR al contribuir con potencia de cómputo para completar tareas de renderizado. El precio de los servicios de renderizado se ajusta dinámicamente en respuesta al uso actual de la red y otras métricas relevantes.
La renderización resulta ser un caso de uso bien adaptado y establecido para la arquitectura de potencia informática distribuida. La naturaleza de las tareas de renderización permite su segmentación en múltiples subtareas ejecutadas en paralelo, minimizando la comunicación e interacción entre tareas. Este enfoque mitiga los inconvenientes de la arquitectura de computación distribuida al aprovechar la extensa red de nodos GPU para impulsar la eficiencia de costos.
La demanda de Render Network es sustancial, con los usuarios habiendo renderizado más de 16 millones de fotogramas y casi 500,000 escenas en la plataforma desde su creación en 2017. El volumen de trabajos de renderizado y nodos activos sigue aumentando. Además, en el primer trimestre de 2023, Render Network introdujo un conjunto de herramientas de IA de Estabilidad integrado nativamente, lo que permite a los usuarios incorporar operaciones de Difusión Estable. Esta expansión más allá de las operaciones de renderizado significa un movimiento estratégico hacia el ámbito de las aplicaciones de IA.
Gensyn opera como una red global de clústeres de supercomputación especializada en computación de aprendizaje profundo, utilizando el protocolo L1 de Polkadot. En 2023, la plataforma aseguró $43 millones en financiamiento de la Serie A, liderado por a16z. El marco arquitectónico de Gensyn se extiende más allá del clúster de potencia informática distribuida de la infraestructura para abarcar un sistema de verificación de capa superior. Este sistema garantiza que las extensas computaciones fuera de cadena se alineen con los requisitos en cadena a través de la verificación de blockchain, estableciendo una red de aprendizaje automático sin confianza.
Con respecto al poder de cómputo distribuido, Gensyn acomoda una gama de dispositivos, desde centros de datos con capacidad excedente hasta laptops personales con GPUs potenciales. Une estos dispositivos en un clúster virtual unificado accesible para los desarrolladores para su uso peer-to-peer bajo demanda. Gensyn tiene como objetivo establecer un mercado donde los precios sean dictados por las fuerzas del mercado, fomentando la inclusión y permitiendo que los costos de cómputo de ML alcancen niveles equitativos.
El sistema de verificación se erige como un concepto fundamental para Gensyn, con el objetivo de validar la precisión de las tareas de aprendizaje automático según lo especificado. Introduce un enfoque innovador de verificación que abarca prueba de aprendizaje probabilístico, protocolo de posicionamiento preciso basado en gráficos y Truebit. Estas características técnicas centrales del juego de incentivos ofrecen una eficiencia mejorada en comparación con los métodos tradicionales de validación de blockchain. Los participantes de la red incluyen submitters, solvers, verifiers y whistleblowers, facilitando colectivamente el proceso de verificación.
Basado en los extensos datos de prueba detallados en el libro blanco del protocolo Gensyn, las ventajas notables de la plataforma incluyen:
Sin embargo, de forma concurrente, la potencia informática distribuida introduce un aumento inevitable en el tiempo de entrenamiento en comparación con el entrenamiento local, atribuido a desafíos de comunicación y de red. Según los datos de prueba, el protocolo Gensyn incurre en aproximadamente un 46% de sobrecarga de tiempo en el entrenamiento del modelo.
Akash Network funciona como una plataforma de computación en la nube distribuida que integra varios elementos técnicos para permitir a los usuarios implementar y gestionar aplicaciones de manera eficiente dentro de un entorno de nube descentralizada. En esencia, ofrece a los usuarios la capacidad de arrendar recursos informáticos distribuidos.
En el núcleo de Akash se encuentra una red de proveedores de servicios de infraestructura dispersos globalmente, que ofrecen recursos de CPU, GPU, memoria y almacenamiento. Estos proveedores suministran recursos para el arrendamiento de usuarios a través del clúster de Kubernetes superior. Los usuarios pueden implementar aplicaciones como contenedores Docker para aprovechar servicios de infraestructura rentables. Además, Akash implementa un enfoque de "subasta inversa" para seguir reduciendo los precios de los recursos. Según estimaciones en el sitio web oficial de Akash, los costos de servicio de la plataforma son aproximadamente un 80% más bajos que los de los servidores centralizados.
io.net se presenta como una red informática descentralizada que interconecta GPUs distribuidas globalmente para proporcionar soporte computacional para el entrenamiento y razonamiento de modelos de IA. Recientemente concluyendo una ronda de financiación de Serie A de $30 millones, la plataforma ahora cuenta con una valoración de $1 mil millones.
Distinguido de plataformas como Render y Akash, io.net emerge como una red informática descentralizada robusta y escalable, intrincadamente vinculada a múltiples niveles de herramientas para desarrolladores. Sus características clave abarcan:
En cuanto a los precios, el sitio web oficial de io.net estima que sus tarifas serán aproximadamente un 90% más bajas que las de los servicios de computación en la nube centralizados.
Además, el token nativo de io.net, IO coin, servirá principalmente como mecanismo de pago y recompensas dentro del ecosistema. Alternativamente, los demandantes pueden adoptar un modelo similar a Helium convirtiendo IO coin en la moneda estable "puntos IOSD" para transacciones.
Este artículo es reimpreso de [GateBlockchain Wanxiang], el título original es “AI+Web3 Future Development Road (2) ): Infraestructura”, los derechos de autor pertenecen al autor original [Blockchain Wanxiang]. Si hay objeciones a esta reimpresión, por favor contacte al Equipo de Aprendizaje de Gate, y lo manejarán rápidamente.
Descargo de responsabilidad: Las opiniones expresadas en este artículo son únicamente del autor y no constituyen ningún consejo de inversión.
Las traducciones del artículo a otros idiomas son realizadas por el equipo de Gate Learn. Sin mencionarGate.io, el artículo traducido no puede ser reproducido, distribuido o plagiado.
Título original reenviado: AI+Web3 Future Development Path (2): Capítulo de Infraestructura
En los últimos años, la demanda de potencia informática ha experimentado un crecimiento rápido, especialmente tras la aparición del gran modelo LLM. Esta oleada de demanda de potencia informática para IA ha impactado significativamente en el mercado de computación de alto rendimiento. Los datos de OpenAI revelan una tendencia notable desde 2012, con la potencia informática utilizada para entrenar los modelos de IA más grandes creciendo exponencialmente, duplicándose cada 3-4 meses en promedio, superando la tasa de crecimiento predicha por la Ley de Moore. La creciente demanda de aplicaciones de IA ha resultado en un rápido aumento en la necesidad de hardware informático. Las proyecciones indican que para 2025, se espera que la demanda de hardware informático impulsada por aplicaciones de IA aumente aproximadamente un 10% a 15%.
Impulsado por la demanda de potencia informática de IA, el fabricante de hardware de GPU NVIDIA ha presenciado un crecimiento continuo en los ingresos del centro de datos. En el segundo trimestre de 2023, los ingresos del centro de datos alcanzaron los $10.32 mil millones, lo que marca un aumento del 141% respecto al primer trimestre de 2023 y un notable aumento del 171% respecto al mismo período del año anterior. Para el cuarto trimestre del año fiscal 2024, el segmento del centro de datos representó más del 83% de los ingresos totales, experimentando un crecimiento simultáneo del 409%, con un 40% atribuido a escenarios de inferencia de modelos grandes, lo que indica una sólida demanda de potencia informática de alto rendimiento.
Simultáneamente, la necesidad de vastas cantidades de datos impone requisitos significativos en el almacenamiento y la memoria del hardware. Especialmente durante la fase de entrenamiento del modelo, son esenciales entradas de parámetros extensas y almacenamiento de datos. Los chips de memoria utilizados en servidores de IA incluyen predominantemente memoria de alta velocidad (HBM), DRAM y SSD. Los entornos de trabajo para servidores de IA deben ofrecer mayor capacidad, rendimiento mejorado, latencia reducida y tiempos de respuesta más rápidos. Según los cálculos de Micron, la cantidad de DRAM en servidores de IA excede en ocho veces a la de servidores tradicionales, mientras que la cantidad de NAND supera los estándares tradicionales de servidores en tres veces.
Normalmente, la potencia informática se utiliza principalmente en las etapas de entrenamiento, ajuste fino e inferencia de los modelos de IA, especialmente durante las fases de entrenamiento y ajuste fino. Debido al aumento de los parámetros de entrada de datos, los requisitos computacionales y la creciente demanda de interconectividad en la computación en paralelo, hay una necesidad de hardware de GPU más potente e interconectado, a menudo en forma de clústeres de GPU de alto rendimiento. A medida que los modelos grandes evolucionan, la complejidad computacional aumenta linealmente, lo que requiere hardware más avanzado para satisfacer las demandas del entrenamiento del modelo.
Tomando GPT-3 como ejemplo, con un escenario que involucra alrededor de 13 millones de visitas de usuarios independientes, la demanda de chips correspondiente superaría las 30,000 GPU A100. Este costo de inversión inicial alcanzaría la asombrosa cifra de $800 millones, con costos estimados de inferencia de modelo diarios que rondan los $700,000.
Al mismo tiempo, los informes de la industria indican que en el cuarto trimestre de 2023, el suministro de GPU de NVIDIA se vio severamente restringido a nivel mundial, lo que provocó un desequilibrio notable entre la oferta y la demanda en los mercados de todo el mundo. La capacidad de producción de NVIDIA se vio limitada por factores como TSMC, HBM, el empaquetado CoWos, y se espera que el 'grave problema de escasez' de la GPU H100 persista al menos hasta finales de 2024.
Por lo tanto, el aumento en la demanda de GPUs de alta gama y las restricciones de suministro han impulsado los precios desorbitados de componentes de hardware actuales como las GPUs. Especialmente para empresas como NVIDIA que ocupan una posición central en la cadena de la industria, los altos precios son aún más elevados debido a su dominio monopolístico, lo que les permite obtener dividendos de valor adicionales. Por ejemplo, el costo material de la tarjeta aceleradora de inteligencia artificial H100 de NVIDIA es de aproximadamente $3,000, sin embargo, su precio de venta alcanzó alrededor de $35,000 a mediados de 2023 e incluso superó los $40,000 en eBay.
Un informe de Grand View Research indica que el tamaño del mercado global de IA en la nube se estimó en $62.63 mil millones en 2023, con proyección de alcanzar $647.6 mil millones para 2030, con una tasa de crecimiento anual compuesta del 39.6%. Estas cifras subrayan el significativo potencial de crecimiento de los servicios de IA en la nube y su contribución sustancial a la cadena global de la industria de la IA.
Según las estimaciones de a16z, una parte sustancial de los fondos en el mercado de AIGC (Inteligencia Artificial y Computación Global) fluye en última instancia hacia empresas de infraestructura. En promedio, las empresas de aplicaciones destinan aproximadamente del 20 al 40 % de sus ingresos a inferencias y ajustes finos para cada cliente. Este gasto se dirige típicamente al proveedor de la nube de la instancia de cómputo o a un proveedor de modelos de terceros, que a su vez dedica alrededor de la mitad de los ingresos a la infraestructura en la nube. En consecuencia, es razonable suponer que del 10 al 20 % de los ingresos totales generados por AIGC se canalizan hacia los proveedores de la nube.
Además, una parte significativa de la demanda de potencia informática se centra en el entrenamiento de grandes modelos de IA, incluidos varios modelos extensos de LLM. Especialmente para las startups de modelos, el 80-90% de los costos se atribuyen a la potencia informática de IA. En conjunto, se espera que la infraestructura informática de IA, que abarca la informática en la nube y el hardware, represente más del 50% del valor inicial del mercado.
Como se discutió anteriormente, el costo actual de la computación de IA centralizada sigue siendo alto, principalmente debido a la creciente demanda de infraestructura de alto rendimiento para el entrenamiento de IA. Sin embargo, existe una cantidad significativa de potencia de cómputo inactiva en el mercado, lo que lleva a un desajuste entre la oferta y la demanda. Los factores clave que contribuyen a este desequilibrio incluyen:
Ante los desafíos mencionados anteriormente, la búsqueda de diseñar chips de alto rendimiento o chips ASIC especializados adaptados para tareas de IA es un camino destacado que están explorando numerosos desarrolladores y grandes empresas. Otro enfoque implica la utilización integral de los recursos informáticos existentes para establecer una red de computación distribuida, con el objetivo de reducir los costos de energía informática mediante el arrendamiento, el intercambio y la programación eficiente de recursos. Además, el mercado actualmente cuenta con un excedente de GPUs y CPUs de consumo inactivo. Si bien las unidades individuales pueden carecer de una potencia de computación sólida, pueden satisfacer eficazmente los requisitos computacionales existentes en escenarios específicos o cuando se integran con chips de alto rendimiento. Es crucial garantizar un suministro suficiente, ya que los costos pueden reducirse aún más mediante la programación de redes distribuidas.
En consecuencia, el cambio hacia la potencia informática distribuida ha surgido como una dirección clave en el avance de la infraestructura de IA. Al mismo tiempo, dada la alineación conceptual entre Web3 y sistemas distribuidos, las redes de potencia informática descentralizada se han convertido en un enfoque principal en el panorama de la infraestructura Web3+AI. Actualmente, las plataformas de potencia informática descentralizada en el mercado Web3 generalmente ofrecen precios que son un 80%-90% más bajos que los servicios de computación en la nube centralizados.
Si bien el almacenamiento juega un papel vital en la infraestructura de IA, el almacenamiento centralizado tiene ventajas distintas en cuanto a escala, usabilidad y baja latencia. Sin embargo, debido a las notables eficiencias de costos que ofrecen, las redes de computación distribuida tienen un potencial de mercado significativo y están en condiciones de cosechar beneficios sustanciales de la expansión del mercado de IA en auge.
El sector de infraestructura de IA distribuida presenta una demanda robusta y perspectivas de crecimiento significativas a largo plazo, lo que lo convierte en un área atractiva para el capital de inversión. Actualmente, los proyectos principales dentro de la capa de infraestructura de la industria AI+Web3 se centran predominantemente en redes de computación descentralizadas. Estos proyectos enfatizan los costos bajos como una ventaja clave, utilizan incentivos de tokens para expandir sus redes y priorizan servir a la clientela de AI+Web3 como su objetivo principal. Este sector comprende principalmente dos niveles clave:
Ofreciendo servicios a precios más competitivos que los servicios de computación en la nube centralizados, manteniendo instalaciones de soporte y experiencias de usuario comparables, este proyecto ha obtenido reconocimiento de prominentes inversores. Sin embargo, la mayor complejidad técnica plantea un desafío significativo. Actualmente, el proyecto se encuentra en la fase narrativa y de desarrollo, sin un producto totalmente lanzado hasta el momento.
Render Network es una plataforma de renderizado global basada en blockchain que aprovecha las GPUs distribuidas para ofrecer a los creadores servicios de renderizado 3D rentables y eficientes. Tras la confirmación del creador de los resultados de renderizado, la red blockchain envía recompensas en forma de tokens a los nodos. La plataforma cuenta con una red de programación y asignación distribuida de GPUs, asignando tareas en función del uso del nodo, la reputación y otros factores para optimizar la eficiencia informática, minimizar los recursos inactivos y reducir gastos.
El token nativo de la plataforma, RNDR, sirve como la moneda de pago dentro del ecosistema. Los usuarios pueden utilizar RNDR para liquidar las tarifas de servicio de renderizado, mientras que los proveedores de servicios ganan recompensas RNDR al contribuir con potencia de cómputo para completar tareas de renderizado. El precio de los servicios de renderizado se ajusta dinámicamente en respuesta al uso actual de la red y otras métricas relevantes.
La renderización resulta ser un caso de uso bien adaptado y establecido para la arquitectura de potencia informática distribuida. La naturaleza de las tareas de renderización permite su segmentación en múltiples subtareas ejecutadas en paralelo, minimizando la comunicación e interacción entre tareas. Este enfoque mitiga los inconvenientes de la arquitectura de computación distribuida al aprovechar la extensa red de nodos GPU para impulsar la eficiencia de costos.
La demanda de Render Network es sustancial, con los usuarios habiendo renderizado más de 16 millones de fotogramas y casi 500,000 escenas en la plataforma desde su creación en 2017. El volumen de trabajos de renderizado y nodos activos sigue aumentando. Además, en el primer trimestre de 2023, Render Network introdujo un conjunto de herramientas de IA de Estabilidad integrado nativamente, lo que permite a los usuarios incorporar operaciones de Difusión Estable. Esta expansión más allá de las operaciones de renderizado significa un movimiento estratégico hacia el ámbito de las aplicaciones de IA.
Gensyn opera como una red global de clústeres de supercomputación especializada en computación de aprendizaje profundo, utilizando el protocolo L1 de Polkadot. En 2023, la plataforma aseguró $43 millones en financiamiento de la Serie A, liderado por a16z. El marco arquitectónico de Gensyn se extiende más allá del clúster de potencia informática distribuida de la infraestructura para abarcar un sistema de verificación de capa superior. Este sistema garantiza que las extensas computaciones fuera de cadena se alineen con los requisitos en cadena a través de la verificación de blockchain, estableciendo una red de aprendizaje automático sin confianza.
Con respecto al poder de cómputo distribuido, Gensyn acomoda una gama de dispositivos, desde centros de datos con capacidad excedente hasta laptops personales con GPUs potenciales. Une estos dispositivos en un clúster virtual unificado accesible para los desarrolladores para su uso peer-to-peer bajo demanda. Gensyn tiene como objetivo establecer un mercado donde los precios sean dictados por las fuerzas del mercado, fomentando la inclusión y permitiendo que los costos de cómputo de ML alcancen niveles equitativos.
El sistema de verificación se erige como un concepto fundamental para Gensyn, con el objetivo de validar la precisión de las tareas de aprendizaje automático según lo especificado. Introduce un enfoque innovador de verificación que abarca prueba de aprendizaje probabilístico, protocolo de posicionamiento preciso basado en gráficos y Truebit. Estas características técnicas centrales del juego de incentivos ofrecen una eficiencia mejorada en comparación con los métodos tradicionales de validación de blockchain. Los participantes de la red incluyen submitters, solvers, verifiers y whistleblowers, facilitando colectivamente el proceso de verificación.
Basado en los extensos datos de prueba detallados en el libro blanco del protocolo Gensyn, las ventajas notables de la plataforma incluyen:
Sin embargo, de forma concurrente, la potencia informática distribuida introduce un aumento inevitable en el tiempo de entrenamiento en comparación con el entrenamiento local, atribuido a desafíos de comunicación y de red. Según los datos de prueba, el protocolo Gensyn incurre en aproximadamente un 46% de sobrecarga de tiempo en el entrenamiento del modelo.
Akash Network funciona como una plataforma de computación en la nube distribuida que integra varios elementos técnicos para permitir a los usuarios implementar y gestionar aplicaciones de manera eficiente dentro de un entorno de nube descentralizada. En esencia, ofrece a los usuarios la capacidad de arrendar recursos informáticos distribuidos.
En el núcleo de Akash se encuentra una red de proveedores de servicios de infraestructura dispersos globalmente, que ofrecen recursos de CPU, GPU, memoria y almacenamiento. Estos proveedores suministran recursos para el arrendamiento de usuarios a través del clúster de Kubernetes superior. Los usuarios pueden implementar aplicaciones como contenedores Docker para aprovechar servicios de infraestructura rentables. Además, Akash implementa un enfoque de "subasta inversa" para seguir reduciendo los precios de los recursos. Según estimaciones en el sitio web oficial de Akash, los costos de servicio de la plataforma son aproximadamente un 80% más bajos que los de los servidores centralizados.
io.net se presenta como una red informática descentralizada que interconecta GPUs distribuidas globalmente para proporcionar soporte computacional para el entrenamiento y razonamiento de modelos de IA. Recientemente concluyendo una ronda de financiación de Serie A de $30 millones, la plataforma ahora cuenta con una valoración de $1 mil millones.
Distinguido de plataformas como Render y Akash, io.net emerge como una red informática descentralizada robusta y escalable, intrincadamente vinculada a múltiples niveles de herramientas para desarrolladores. Sus características clave abarcan:
En cuanto a los precios, el sitio web oficial de io.net estima que sus tarifas serán aproximadamente un 90% más bajas que las de los servicios de computación en la nube centralizados.
Además, el token nativo de io.net, IO coin, servirá principalmente como mecanismo de pago y recompensas dentro del ecosistema. Alternativamente, los demandantes pueden adoptar un modelo similar a Helium convirtiendo IO coin en la moneda estable "puntos IOSD" para transacciones.
Este artículo es reimpreso de [GateBlockchain Wanxiang], el título original es “AI+Web3 Future Development Road (2) ): Infraestructura”, los derechos de autor pertenecen al autor original [Blockchain Wanxiang]. Si hay objeciones a esta reimpresión, por favor contacte al Equipo de Aprendizaje de Gate, y lo manejarán rápidamente.
Descargo de responsabilidad: Las opiniones expresadas en este artículo son únicamente del autor y no constituyen ningún consejo de inversión.
Las traducciones del artículo a otros idiomas son realizadas por el equipo de Gate Learn. Sin mencionarGate.io, el artículo traducido no puede ser reproducido, distribuido o plagiado.