Ark Invest: Estado actual y futuro de la infraestructura de IA

Fuente: Frank Downing, Ark Invest; Traducción: Jinse Caijing Claw

El gasto en infraestructura de IA crece de forma explosiva

En los tres años desde el lanzamiento de ChatGPT, la demanda de computación acelerada ha experimentado un crecimiento explosivo. Los ingresos anuales de Nvidia se han multiplicado casi por 8, pasando de 27 mil millones de dólares en 2022 a 216 mil millones en 2025, y el mercado espera que en 2026 crezca un 62% más, alcanzando los 350 mil millones de dólares. La inversión en sistemas de centros de datos globales (incluyendo hardware de computación, redes y almacenamiento) ha acelerado desde un crecimiento anual promedio del 5% en la última década hasta más del 30% en los últimos tres años, y se espera que en 2026 vuelva a crecer más del 30%, alcanzando los 653 mil millones de dólares.

Las investigaciones de ARK muestran que la computación acelerada impulsada por GPU y circuitos integrados específicos para IA (ASIC) ya domina la inversión en servidores, representando el 86% de las ventas de servidores de computación.

La caída de costos impulsa la adopción de aceleradores

El impulso para aumentar el gasto en infraestructura de computación acelerada necesaria para ejecutar modelos de IA proviene de la expansión de escenarios de uso de IA generativa tanto en consumo como en empresas, así como de la necesidad de entrenar modelos base más inteligentes en la búsqueda de una “superinteligencia”.

La rápida disminución de costos está acelerando aún más la demanda. Según nuestras investigaciones, el costo de entrenamiento de IA disminuye un 75% cada año. Los costos de inferencia caen aún más rápido: en las pruebas de referencia rastreadas por Artificial Analysis, más del 50% de los modelos tienen una reducción anualizada en costos de hasta el 95%.

Dos fuerzas principales impulsan esta caída de costos: primero, los líderes del sector como Nvidia lanzan nuevos productos cada año, mejorando el rendimiento del hardware generación tras generación; segundo, las mejoras en algoritmos a nivel de software aumentan la eficiencia del entrenamiento y la inferencia en el mismo hardware.

Señales de fuerte demanda tanto de consumidores como de empresas

La adopción de IA por parte de los consumidores avanza mucho más rápido que la adopción de internet en su momento. La tasa de penetración de IA se ha expandido a aproximadamente un 20% en solo tres años, más del doble de la velocidad de adopción de internet por los consumidores.

La demanda empresarial también crece a un ritmo sorprendente. Tomando como ejemplo los datos de OpenRouter, desde diciembre de 2024, la demanda de tokens ha aumentado 28 veces.

En los últimos dos años, el laboratorio de IA Anthropic, muy popular entre los clientes empresariales, ha experimentado un crecimiento de ingresos asombroso, cerca de 100 veces: de 10 millones de dólares en ingresos anuales a finales de 2023, a una estimación de entre 8 y 10 mil millones de dólares a finales de 2025. La tendencia de Anthropic continúa en 2026, con un ingreso anualizado de 14 mil millones de dólares en febrero, y una ronda de financiación de 30 mil millones, valorando la empresa en 380 mil millones de dólares.

En la competencia simultánea en consumidores y empresas, OpenAI ha logrado un fuerte crecimiento en clientes corporativos, alcanzando 1 millón de empresas en noviembre de 2025. Según la directora financiera Sarah Friar, los ingresos de OpenAI en el segmento empresarial crecen más rápido que en el de consumidores, y se espera que en 2026 represente el 50% de los ingresos totales de la compañía. En una publicación en su blog de enero de 2026, Friar también explicó las razones para seguir invirtiendo en infraestructura: en los últimos tres años, los ingresos de OpenAI han crecido en proporción directa a su capacidad de cálculo.

El mercado de capital privado financia la construcción de IA

Para satisfacer estas señales de demanda robusta, las inversiones en infraestructura a gran escala se han vuelto imprescindibles. Según Crunchbase, en 2025, la financiación de laboratorios privados de IA superó los 200 mil millones de dólares, de los cuales unos 80 mil millones se dirigieron a desarrolladores de modelos base como OpenAI, Anthropic y xAI. En el mercado público, las grandes empresas de computación en la nube están movilizando reservas de efectivo y buscando otras formas de financiamiento para apoyar sus planes de gasto en IA, que en 2026 podrían alcanzar los 700 mil millones de dólares.

Se informa que la transacción de 30 mil millones de dólares entre Meta y Blue Owl es la mayor operación de capital privado hasta la fecha. La operación se estructuró en forma de joint venture, principalmente con financiamiento mediante deuda, y su estructura de vehículo de propósito especial (SPV) permitirá que la deuda del proyecto no aparezca en el balance de Meta, lo que ha generado bastante controversia.

AMD y otros fabricantes desafían a Nvidia

Fuera de los centros de datos físicos, los chips de computación siguen siendo el núcleo del gasto en IA. Nvidia ha estado a la vanguardia en la era de la computación acelerada, pero ahora los mayores compradores de chips de IA buscan maximizar la potencia de cálculo por dólar invertido. Desde la adquisición de ATI Technologies en 2006, AMD ha estado junto a Nvidia en el mercado de consumo con sus GPU, y ahora también se ha convertido en un competidor emergente en el mercado empresarial. Desde el lanzamiento de su serie de procesadores EPYC en 2017, AMD ha aumentado su participación en el mercado de CPU para servidores del casi cero en 2017 a un 40% en 2025.

En cuanto a inferencia con modelos pequeños, las GPU de AMD ya ofrecen un costo total de propiedad (TCO) en relación con el rendimiento comparable al de Nvidia. El TCO considera tanto el costo inicial de compra del chip (gasto de capital) como los costos operativos durante su vida útil (gasto operativo). La referencia de rendimiento usa el índice InferenceMax de SemiAnalysis, que mide la cantidad de tokens procesados por GPU por segundo en escenarios optimizados para rendimiento, y la referencia de costos estima los gastos de capital y operación por hora.

Aunque AMD ha alcanzado en rendimiento en modelos pequeños, Nvidia sigue claramente liderando en modelos grandes, como se muestra en la siguiente gráfica.

La solución Grace Blackwell de Nvidia conecta 72 GPU Grace Blackwell (GB200), funcionando como una GPU de memoria compartida de gran escala. La interconexión estrecha entre chips refuerza la capacidad de inferencia en modelos grandes, que requieren distribuir los pesos del modelo en múltiples GPU y mayor ancho de banda de comunicación. Para reducir la brecha antes del lanzamiento de Vera Rubin de Nvidia, AMD planea lanzar su solución de nivel rack en la segunda mitad de 2026. Hasta ahora, AMD ha obtenido pedidos de clientes como Microsoft, Meta, OpenAI, xAI y Oracle.

Los gigantes de la nube lideran la revolución de chips personalizados

Además de los proveedores comerciales de GPU, los gigantes de la nube y laboratorios de IA también buscan desarrollar sus propios chips para reducir la dependencia de Nvidia y disminuir los costos de cálculo en IA. Durante más de una década, Google ha diseñado sus propios circuitos especializados para IA, llamados tensor processing units (TPU), para ejecutar modelos recomendados en su búsqueda y ha optimizado el rendimiento en la última generación TPU v7 para IA generativa. SemiAnalysis estima que Google puede reducir en un 62% el costo por cálculo interno usando sus TPUs en comparación con Nvidia. Anthropic y Meta están ampliando su capacidad de cálculo usando TPUs de Google, lo que probablemente confirma que la estimación del 62% no está muy alejada de la realidad.

El chip Trainium de Amazon parece ser una solución de nivel intermedio. Tras adquirir Annapurna Labs en 2015, Amazon fue pionera en desarrollar chips personalizados para su nube, expandiendo sus CPU basadas en ARM Graviton y sus unidades de procesamiento de datos Nitro (DPU), para soportar la infraestructura de AWS. Recientemente, Amazon anunció que en 2025, Graviton proporcionó más de la mitad de la capacidad adicional de CPU en AWS por tercer año consecutivo. Además de usar TPUs, Anthropic también prefiere usar AWS y Trainium como plataforma principal de entrenamiento.

Microsoft entró en el campo de chips personalizados en 2023 con el lanzamiento del acelerador Maia 100, aunque en ese momento no se centraba en IA generativa. Ahora, con su segunda generación, se enfoca en inferencia de IA.

Broadcom lidera el mercado de servicios de chips personalizados

Google y Amazon se concentran en el diseño de chips front-end (arquitectura y funciones), mientras que los socios de diseño back-end se encargan de convertir esa lógica en silicio, gestionar empaquetados avanzados y coordinar la producción con fabricantes como TSMC. En un contexto donde la fabricación de Intel enfrenta desafíos, TSMC se ha convertido en el socio preferido para la mayoría de los principales proyectos de chips de IA, y Broadcom se ha consolidado como el principal socio de diseño back-end para los TPU de Google, los MTIA de Meta y los chips personalizados que OpenAI lanzará en 2026. Apple, que tradicionalmente diseña internamente todos sus chips para teléfonos y PCs, también podría estar colaborando con Broadcom en el desarrollo de chips de IA, según informes. Citibank estima que los ingresos de Broadcom por IA podrían multiplicarse por cinco en los próximos dos años, pasando de 20 mil millones en 2025 a 100 mil millones en 2027.

El camino de investigación y desarrollo de Trainium de Amazon es bastante singular: se informa que Trainium 2 se desarrolló en colaboración con Marvell, pero debido a problemas de ejecución, Trainium 3 y 4 pasaron a colaborar con Alchip. La capacidad de Amazon para cambiar de socios de back-end indica que la integración vertical con empresas como Broadcom conlleva ciertos riesgos. También se sabe que Apple y Tesla trabajan directamente con fabricantes de chips. Es probable que Google también siga esta estrategia con su TPU v8, que tendrá dos SKU: uno diseñado en colaboración con Broadcom y otro desarrollado y controlado internamente por Google con soporte de MediaTek.

El auge de las startups de chips

Nuestros estudios muestran que un grupo de startups que experimentan con nuevos paradigmas arquitectónicos puede desafiar aún más la posición de mercado de los fabricantes existentes. Cerebras, conocido por su motor a nivel de oblea (un enorme chip de silicio del tamaño de una caja de pizza, fabricado en una sola oblea), ofrece la velocidad de procesamiento de tokens por segundo más rápida del mercado y planea salir a bolsa este año. La compañía anunció recientemente una colaboración con OpenAI para lanzar el modelo de programación de alta velocidad Codex Spark, tras un acuerdo previo en enero. Groq, también destacado por su velocidad de procesamiento, firmó recientemente un acuerdo de licencia de propiedad intelectual no exclusiva por 20 mil millones de dólares con Nvidia, incluyendo al 90% de su personal y a Jonathan Ross, cofundador de TPU y CEO. Esta estructura de adquisición parcial refleja una tendencia creciente en fusiones y adquisiciones, donde las grandes tecnológicas buscan evitar retrasos regulatorios. En otras operaciones, Intel, tras una supuesta fallida negociación de adquisición, ha establecido una colaboración con SambaNova. Desde 2014, Intel ha realizado cuatro adquisiciones en IA, pero aún no ha lanzado un producto de IA ampliamente aceptado, lo que resulta bastante decepcionante.

Perspectivas: un mercado de 1.4 billones de dólares para 2030

Según nuestras investigaciones, el crecimiento sostenido de la demanda y la mejora continua del rendimiento en los próximos cinco años impulsarán el desarrollo del software y los servicios en la nube de IA, con un gasto en infraestructura que se triplicará, pasando de 500 mil millones en 2025 a casi 1.5 billones en 2030.

Nuestra predicción se basa en observaciones históricas de la inversión en sistemas de centros de datos en relación con los ingresos de software. A principios de los 2010, con el auge de la computación en la nube, la inversión en sistemas representaba aproximadamente el 50% del gasto global en software. Para 2021, tras la sobreinversión post-pandemia y la optimización de clientes, esa proporción cayó a poco más del 20%. Nuestra estimación de 1.5 billones de dólares asume que en 2030 la inversión será el 20% de nuestro escenario de predicción neutral para el gasto global en software, que es de 70 billones de dólares. Este porcentaje ya fue explicado en un blog el año pasado. Consideramos que este nivel refleja suficientemente los riesgos de sobreinversión potencial antes de 2030 y la posibilidad de que los ingresos de software crezcan más lentamente que en el escenario neutral; en este caso, la inversión en infraestructura seguiría creciendo rápidamente, como en los primeros años de la década pasada.

Con la demanda de cálculo impulsada por IA en constante crecimiento, prevemos que la proporción de chips personalizados en el gasto en computación seguirá aumentando, ya que el tiempo y la inversión necesarios para diseñar chips específicos para cargas de trabajo particulares se reflejarán en ventajas de rendimiento por dólar cada vez mayores a escala. Estimamos que, para 2030, los ASIC personalizados podrían representar más de un tercio del mercado de computación.

En conjunto, nuestra investigación indica que la actual construcción de infraestructura no es una burbuja a punto de estallar, sino una transformación a nivel de plataforma sin precedentes. ARK predice que para 2030, el gasto anual en infraestructura de IA alcanzará cerca de 1.5 billones de dólares, impulsado por una demanda real y en constante aceleración tanto de consumidores como de empresas, y por la continua reducción de costos que valida y desbloquea nuevos escenarios de uso. Creemos que en los próximos cinco años, las empresas que sobresalgan serán aquellas capaces de diseñar chips altamente eficientes, construir modelos poderosos y desplegar ambos a gran escala.

Como explicó Jensen Huang, CEO de Nvidia, en la conferencia de resultados del cuarto trimestre fiscal 2026, los agentes de IA verdaderamente útiles apenas comienzan a implementarse a gran escala en los últimos meses. Consumen una cantidad enorme de tokens, pero superan con creces la capacidad de la mayoría de los productos de IA que los usuarios estaban acostumbrados a usar. Expandir estos agentes a millones de empresas será una tarea extremadamente intensiva en cálculo, pero en nuestra opinión, la mejora en productividad que esto generará justificará plenamente esas inversiones.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado