Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
New
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Su Zifeng y su guerra por ir a Nvidia
Cuando Su Zifeng asumió como CEO de AMD en 2014, la valoración de la compañía era inferior a 3 mil millones de dólares. Hoy en día, esa cifra ha superado los 315 mil millones de dólares, con un crecimiento de más de cien veces.
El aumento en la valoración de AMD comenzó en 2018, un año antes, un grupo de ocho científicos de Google publicó un artículo que inauguró una nueva etapa en la inteligencia artificial, titulado “Attention Is All You Need” — que propuso la arquitectura de aprendizaje profundo basada en mecanismos de atención, Transformer, cuya capacidad de cálculo paralelo llevó indirectamente a la empresa de GPU a la cima.
Durante ese período, surgieron numerosos startups chinas de GPU, mientras que gigantes como Google optaron por un camino diferente, desarrollando chips ASIC (Circuitos Integrados de Uso Específico) para optimizar los costos totales de propiedad del poder de cálculo.
Hasta hoy, los chips de IA, como infraestructura de computación, han evolucionado en una competencia multidimensional. Esto no solo implica una carrera frenética en rendimiento y costos, sino también una dependencia de energías sostenibles. En la parte más crítica de la cadena de suministro, fábricas líderes como TSMC, Samsung y SK Hynix determinan la intensidad de la guerra de chips de IA, dependiendo de la escala de producción que puedan ofrecer.
Desde el rendimiento hasta los clientes y la capacidad, lo que Su Zifeng enfrenta es una batalla sin precedentes.
Sobre los clientes, una fuente del sector reveló: “Lisa Su todavía visita clientes en China continental con bastante frecuencia, mucho más que el propio Huang.”
Según nuestra información, en el ámbito público, Su tiene programadas dos visitas a China en 2025: la primera en marzo, en la Cumbre de Innovación AIPC, y la segunda para visitar socios, ambas relacionadas con Lenovo.
El nuevo camino de Su
Durante la mayor parte de la última década, el principal competidor de AMD ha sido Intel.
AMD ha ido ganando cuota en los mercados de escritorio, servidores y ordenadores personales, pero en la era de la IA, las reglas del juego han cambiado.
En 2018, AMD hizo un giro importante hacia la computación en la nube, lanzando la serie Instinct de GPU para centros de datos, su primer chip diseñado específicamente para cargas de trabajo de IA, y durante años ha sido un perseguidor en esa línea.
En la feria de computación de Taipei del año pasado, cuando le preguntaron sobre su papel de perseguidor, Su no evitó la realidad de estar algo rezagada y dijo: “Es evidente que la demanda de IA está acelerándose rápidamente,” y agregó: “En realidad, acabamos de comenzar un ciclo superlargo de IA que durará diez años.”
Esa misma año, Su también mencionó un detalle que suele pasar desapercibido: “El año pasado (2023), lanzamos la serie MI300X, con ventajas líderes en inferencia.”
Es decir, Su ya había percibido el valor de la inferencia mucho antes, y los resultados posteriores reflejan su visión de futuro — en 2025, la inferencia se convirtió en un tema recurrente, y Nvidia incluso adquirió por 20 mil millones de dólares al proveedor de chips de inferencia Groq.
El punto de inflexión de AMD ocurrió en 2025.
En junio de 2025, en el evento “Advancing AI” en San José, Su hizo un anuncio audaz: la serie MI350 de AMD (liderada por el MI355X) ya estaba en producción, con un rendimiento de inferencia 35 veces superior a la generación anterior.
En esa ocasión, Su revisó sus expectativas sobre el tamaño del mercado.
Previó que para 2028, los ingresos del mercado global de procesadores de IA alcanzarían los 500 mil millones de dólares. Pero en 2025, en medio del año, ya anticipaba que esa cifra se alcanzaría antes.
“Antes, la gente pensaba que 500 mil millones de dólares era una cifra enorme,” dijo tras su discurso, “pero ahora, parece estar al alcance de la mano.”
Su nueva predicción no es tan audaz comparada con la inversión de más de 600 mil millones de dólares que las grandes empresas de Silicon Valley planean para 2026, pero lo que realmente destaca es que Su afirmó que la serie MI400, que debutará en 2026, superará significativamente a Nvidia.
“Cuando esta serie (MI400) se lance, colocará a AMD claramente por delante de Nvidia en tecnología actual.”
En ese momento, el CEO de OpenAI, Sam Altman, compartió escenario con ella. Él comentó que las especificaciones iniciales del MI400 eran demasiado ambiciosas, tanto que pensó que era “imposible”. Confirmó que OpenAI está colaborando con AMD en el desarrollo del chip MI450.
No solo trabajan en el desarrollo de chips, sino que, sorprendentemente, AMD y OpenAI han establecido una relación mediante un intercambio de acciones por pedidos, aunque eso será tema para otra ocasión.
En CES 2026, Su presentó oficialmente la serie MI450. Según ella, el MI450 combina las capacidades del MI300X y el MI350, representando un avance en rendimiento en escalones — con memoria HBM, expandiendo la memoria, ancho de banda y potencia de cálculo, rompiendo la “barrera de memoria” en la inferencia de IA.
El verdadero plato fuerte es el MI455X.
Su anunció que la serie MI455X ofrece un rendimiento diez veces superior a la del MI355X. La implementarán en el nuevo servidor abierto de 72 tarjetas “Helios” de AMD.
Helios cuenta con 18 bandejas de cálculo, cada una con 1 CPU Venice y 4 GPU MI455X. La CPU Venice, fabricada en proceso de 2 nm, tiene 4,600 núcleos; la GPU MI455X, en proceso de 3 nm, cuenta con 18,000 núcleos de cálculo. Todo el sistema, con 31 TB de memoria HBM4 y un ancho de banda total de 43 TB/s, ofrece 2.9 exaflops de potencia de cálculo FP8.
AMD destaca que Helios es una plataforma abierta para escalar a nivel de Yotta (1 Yotta Flops = 10^24 operaciones de punto flotante por segundo).
En su hoja de ruta, AMD planea lanzar en 2027 la serie MI500, basada en la arquitectura cDNA6, con tecnología de proceso de 2 nm y memoria HBM4e de alta velocidad. Su Zifeng afirmó que el MI500 dará un salto importante en rendimiento de IA, impulsando la próxima ola de modelos multimodales a gran escala.
“En los próximos cuatro años, buscaremos aumentar el rendimiento de IA en 1000 veces,” dijo, aunque en esta ocasión no enfatizó que esa mejora se refiere específicamente a la inferencia.
Planes B y C
“El futuro de la IA no será construido por ninguna sola compañía ni en un ecosistema cerrado,” predijo, “sino a través de la colaboración abierta en toda la industria.”
La colaboración abierta más concreta es la unión con otros actores del sector.
Las oportunidades provienen de la estrategia diversificada de adquisición de capacidad de los principales fabricantes de modelos grandes — desde OpenAI, Google y Meta, que no solo compran productos de Nvidia, sino que también incluyen a AMD en su cadena de suministro, casi como una compra efectiva de capacidad en el mercado. Si eso no basta, desarrollan sus propios sistemas.
En octubre de 2025, AMD firmó un acuerdo de suministro de 6 GW de GPUs con OpenAI, usando varias generaciones de GPUs AMD Instinct para soportar su infraestructura de IA de próxima generación. La primera fase, de 1 GW, con AMD Instinct MI450, se desplegará en la segunda mitad de 2026.
Lo innovador de este acuerdo es que AMD otorgó a OpenAI warrants para comprar hasta 160 millones de acciones ordinarias de AMD, con un precio de ejercicio de 0.01 dólares por acción.
Estos warrants se asignarán en tramos según hitos específicos: el primero al completar la primera implementación de 1 GW, y los siguientes a medida que la adquisición total alcance los 6 GW. La asignación también dependerá de que AMD alcance ciertos objetivos de precio y que OpenAI logre hitos técnicos y comerciales.
La colaboración entre proveedores de capacidad y clientes de grandes modelos se interpreta como un “intercambio de acciones por pedidos”, una forma de financiamiento circular.
Cinco meses después, AMD casi repitió el mismo esquema con Meta.
En febrero de 2026, AMD y Meta anunciaron un acuerdo de 6 GW para proveer varias generaciones de GPUs AMD Instinct para la próxima infraestructura de IA de Meta.
Se espera que los primeros productos de despliegue de 1 GW comiencen a salir en la segunda mitad de 2026, con GPUs basadas en la arquitectura personalizada MI450, CPU AMD EPYC de sexta generación con código “Venice”, que ejecutan el software ROCm y están construidos sobre la arquitectura de rack AMD Helios.
AMD otorgó a Meta warrants basados en rendimiento, similares a los de OpenAI, para comprar hasta 160 millones de acciones ordinarias, aproximadamente el 10% de la compañía.
El analista de chips Ben Bajarin de Creative Strategies estima que este acuerdo tendrá un valor de varios miles de millones de dólares en al menos cuatro años, dado que desplegar 6 GW lleva tiempo.
Su Zifeng, en una entrevista, afirmó que esta estructura de warrants es “una situación en la que todos ganan,” sustentando un plan y modelo financiero “muy ambiciosos.” Considera que este acuerdo es “una de las transacciones más transformadoras” en la expansión de capacidades de IA de AMD.
El 3 de marzo, en la conferencia de Morgan Stanley, Su explicó más sobre la lógica de emitir warrants. Dijo que uno de los valores de estos warrants es que pueden acelerar las compras en la transacción, además de impulsar la construcción del ecosistema de AMD. La ejecución de los derechos de los warrants está vinculada a resultados, por lo que ambas partes tienen incentivos para alcanzar sus metas.
Su Zifeng enfatizó que este tipo de transacción aumenta el valor de AMD al acelerar las compras y también el desarrollo del ecosistema tecnológico y de software. Los beneficios no solo se reflejan en la colaboración con Meta, sino que se extenderán a todo el ecosistema de AMD.
¿A quién le entregará Su Zifeng su próximo “intercambio de acciones por pedidos”? ¿Quizá a Anthropic?
Si consideramos las alianzas AMD+OpenAI y AMD+Meta como planes B, Su Zifeng también tiene un plan C para el futuro: “AMD en la banca de inversión.”
Su división de inversiones, AMD Ventures, realizó su inversión más emblemática en mayo de 2025, participando en la startup de IA en la nube TensorWave, en una operación similar a la inversión de Nvidia en CoreWeave.
El ecosistema de AMD aparece frecuentemente en su lista de tareas, incluyendo inversiones en el proyecto de modelos de mundo de Fei-Fei Li, World Labs, y en startups de nuevos modelos como Liquid AI, que desafían a los transformers tradicionales.
Además, según información pública, AMD también participó en las rondas de financiación de las empresas de chips de IA de interconexión óptica, D y E.
Según su sitio web y reportes públicos, el portafolio de inversiones de AMD también incluye empresas como Absci (descubrimiento de fármacos con IA), Scale AI (etiquetado de datos), Runway (generación de video con IA) y Luma AI (modelos multimodales), entre otras.
Desde la infraestructura de cálculo hasta los modelos de base y los modelos verticales, Su Zifeng con su plan C, bosqueja el futuro del ecosistema AMD.
Guerra por la cadena de suministro
La capacidad de producción siempre ha sido un tema central en la industria de semiconductores, incluyendo tanto la alta capacidad de fabricación de chips como la disponibilidad de componentes clave.
Es simple: si tienes el producto y los clientes firman, pero no puedes obtener suficiente capacidad, todo será en vano.
La capacidad de fabricación de chips se centra principalmente en empaquetado avanzado CoWoS, del cual informamos en enero: para 2026, se estima que TSMC tendrá una capacidad total de aproximadamente 1.15 millones de obleas, de las cuales AMD ha reservado alrededor del 8%, es decir, unas 90,000 obleas.
En la reunión de Morgan Stanley en marzo, un periodista preguntó a Su si la capacidad de CoWoS sería suficiente. Ella respondió: “Tenemos suficiente capacidad de CoWoS. Sé que muchas personas están verificando esto. La mejor respuesta que puedo dar es: tenemos capacidad, tecnología, relaciones sólidas con clientes, y los centros de datos ya han asignado espacio para ello.”
Estimando con base en que cada paquete de MI400 ocupa 4800 mm², una oblea puede cortar entre 8 y 10 chips. Con un máximo de 10, sin considerar otros productos (que no usarán toda la capacidad para MI400), AMD planea producir unas 900,000 unidades de MI400 en 2026, lo que equivale a unas 12,500 unidades de Helios de 72 tarjetas.
900,000 chips MI400 significan que AMD necesitará al menos 10.8 millones de módulos HBM en ese año.
Con pedidos de OpenAI y Meta que suman 16 GW, la estabilidad del suministro de HBM será clave para cumplir con esas entregas. El problema es que, como uno de los principales proveedores, Samsung también suministra HBM a Nvidia. Para AMD, asegurar capacidad de producción ideal será aún más difícil.
En este contexto, Su Zifeng planea visitar Corea del Sur.
Medios coreanos informaron que Su visitará Corea el 18 de marzo, su primera visita en más de una década como CEO. Fuentes cercanas indican que podría reunirse con el presidente de Samsung Electronics, Lee Jae-yong, y la CEO de Naver, Choi Su-yeon, para discutir colaboraciones en centros de datos y otros ámbitos.
Expertos del sector esperan que Su exija a Samsung ampliar el suministro de memoria de alta banda ancha. La semana pasada, Samsung anunció que comenzaba la producción en masa de HBM4, la primera en el mundo en enviar chips avanzados para aceleradores de IA.
Además de HBM, la oferta de DRAM y NAND también es apremiante.
En un contexto de escasez global de chips de memoria, asegurar capacidad para la línea de servidores de AMD se vuelve una prioridad. Se informa que AMD también está en conversaciones con Samsung para colaborar en la fabricación de CPUs EPYC Venice en proceso de 2 nm.
En la misma reunión de Morgan Stanley, Su también abordó el mercado de memoria.
“Llevamos años planificando con los fabricantes. Ya tenemos planes para la producción en volumen del MI450 y la transición a HBM4. En cuanto a la oferta de HBM, nos sentimos bien,” afirmó.
Pero también reconoció que el mercado de memoria está enfrentando reacciones en cadena. La demanda de DDR4 y DDR5, así como la memoria para consumo, está elevando los precios de los componentes, encareciendo los sistemas.
La reunión con el líder de Samsung y la de Naver están relacionadas con la capacidad y el mercado, respectivamente.
Naver está implementando una estrategia clara de “múltiples proveedores,” reduciendo gradualmente su dependencia de Nvidia. Como actor importante en el mercado de servidores en Asia Oriental, la demanda de Naver abre oportunidades para AMD.
Su Zifeng visitará Corea en un momento en que Nvidia celebra su GTC 2026, dominando aproximadamente el 90% del mercado. AMD, con Su a la cabeza, busca “desmantelar” esa hegemonía, pero eso requiere una respuesta ágil en la “guerra invisible” de la cadena de suministro.
Su estrategia es simple: viajar en persona, concertar reuniones y asegurar capacidad.
En la llamada del cuarto trimestre de 2025, el 4 de febrero, Su resumió el año: ingresos, beneficios netos y flujo de caja libre alcanzaron récords históricos. Los ingresos del sector de centros de datos crecieron un 39% interanual, hasta 5.4 mil millones de dólares.
“2025 fue un año excelente para AMD, marcando el inicio de una nueva trayectoria de crecimiento,” afirmó. “Estamos entrando en un superciclo de demanda de alto rendimiento y cálculo de IA, que genera enormes oportunidades de crecimiento en todos nuestros negocios.”
En noviembre pasado, Su estableció en la reunión de analistas financieros un objetivo: lograr una tasa de crecimiento anual compuesta superior al 35% en los próximos tres a cinco años, expandiendo significativamente los márgenes de beneficio y generando más de 20 dólares por acción en ese período.
“Todo esto será impulsado por el crecimiento en todos nuestros departamentos y la rápida expansión de nuestro negocio de IA en centros de datos,” concluyó.
No es sorpresa que los motores de crecimiento y expansión provendrán principalmente del negocio de centros de datos. Para lograrlo, AMD debe hacer varias cosas: fortalecer su vínculo con grandes clientes en Silicon Valley, invertir en el futuro, construir un ecosistema de suministro robusto y basarse siempre en el rendimiento y la estabilidad de sus productos.
Solo así, Su Zifeng podrá liderar a la compañía en un proceso paulatino de “des-Nvidiaización” del mercado de centros de datos.
Fuente: Tencent Technology
Aviso de riesgo y exención de responsabilidad
El mercado tiene riesgos, invierta con prudencia. Este artículo no constituye asesoramiento de inversión personal ni considera circunstancias específicas de cada usuario. Los usuarios deben evaluar si las opiniones, puntos de vista o conclusiones aquí presentadas se ajustan a su situación particular. La responsabilidad por las decisiones de inversión recae en el inversor.