Durante el evento, AMD anunció una amplia cartera de hardware, software y soluciones para impulsar todo el espectro de la IA. En primer término, presentó las GPU Instinct Serie MI350, presentadas como un nuevo referente en rendimiento, eficiencia y escalabilidad en IA generativa y computación de alto rendimiento. Compuesta por las GPU y plataformas Instinct MI350X y MI355X, ofrece un aumento de 4 veces en la capacidad de procesamiento de IA, generación tras generación, y un salto generacional de 35 veces en inferencia, destacó la compañía.
«La serie MI350 -disponible en q3 2025- ofrece un salto generacional masivo de 4 veces en cómputo de IA para acelerar tanto el entrenamiento como la inferencia, con una memoria de 388GB, la más avanzada de la indutria. Ahora podemos ejecutar modelos de hasta 520 mil millones de parametros en una sola GPU», dijo Lisa Su, CEO de AMD, en su exposición.
La ejecutiva destacó que la serie MI350 también usa la misma plataforma estándar de la industria que la MI300 y la MI325. «Esto es realmente importante porque hace que sea muy fácil implementar la serie MI350 en la infraestructura de centros de datos existente», señaló.
«Estamos generando hasta un 30% más tokens por segundo en comparación con el B200, e incluso igualando el rendimiento del GB200, que es significativamente más caro y complejo, aún cuando la competencia utiliza su más reciente pila de software propietaria. Esto revela que tenemos un hardware realmente sólido, algo que siempre supimos, pero también demuestra que los frameworks de software abierto han progresado enormemente, al punto de superar a ecosistemas cerrados y específicos de ciertos proveedores».
Lisa Su, CEO de AMD.
Asimismo, aseguró que se compara las especificaciones de esta serie con la competencia, soporta 1.6x más flops en una amplia gama de tipos de datos de IA. «Especialmente, si miramos FP6 y FP64, tenemos el doble de rendimiento. Esto significa que tenemos un rendimiento líder en la industria en ambos extremos del espectro, ya sea hablando de modelos de IA de vanguardia o simulaciones cinetíficas a gran escala o aplicaciones de ingeniería», señaló.
“Desde la perspectiva de la inferencia, ofrecer hasta un 40% más de tokens por dólar es una propuesta de valor clave. Tenemos un rendimiento muy sólido con precios ventajosos para nuestros clientes, lo que permite inferir más tokens por dólar a un coste significativamente menor”.
Andrew Dieckmann, CVP & GM Data Centers GPU Business de AMD.
La serie Instinct MI350 superó el objetivo quinquenal de AMD de mejorar la eficiencia energética del entrenamiento de IA y los nodos de computación de alto rendimiento en 30 veces, logrando una mejora de 38 veces. AMD también reveló un nuevo objetivo para 2030: lograr un aumento de 20 veces en la eficiencia energética a escala de rack con respecto al año base 2024, lo que permitirá que un modelo típico de IA que hoy requiere más de 275 racks se entrene en menos de un rack completamente utilizado para 2030, con un consumo de electricidad del 95 % menor.
“Creemos que, gracias a la colaboración con todos nuestros socios clave, se logró el equilibrio de diseño ideal entre complejidad y fiabilidad, ofreciendo todas las ventajas de rendimiento que ofrecemos en el mercado”.
Andrew Dieckmann.
“Ofrecemos un rendimiento y una eficiencia de entrenamiento significativamente superiores en comparación con nuestra generación anterior. En el pre entrenamiento, el MI355X ofrece un rendimiento 2.5x superior en una variedad de tamaños de modelo y formatos de datos. Y en el ajuste fino, ofrecemos hasta 2.9x más rendimiento, lo que permite ciclos de iteración más rápidos y reduce el tiempo desde el desarrollo hasta la implementación del modelo», destacó Andrew Dieckmann, CVP & GM Data Centers GPU Business de AMD, durante una sesión previa al lanzamiento oficial realizado por Lisa Su.
Asimismo, el ejecutivo aseguró que, “en comparación con la competencia, el MI355X ofrece un rendimiento de primera clase, según los últimos estándares de la industria de ML Perf v5.0. Durante el pre entrenamiento, comparamos el rendimiento del B200 con una amplia gama de tamaños de modelo y formatos de datos. Existe una comparación entre ambos modelos, un GB200 y un B200, con un rendimiento muy competitivo en comparación con los últimos resultados publicados”.
Infraestructura abierta a escala de rack: llega Helios
AMD también demostró una infraestructura de IA integral a escala de rack con estándares abiertos, que ya se está implementando con aceleradores AMD Instinct Serie MI350, procesadores AMD EPYC de 5.ª generación y tarjetas de red AMD Pensando Pollara en implementaciones hyperscalers como Oracle Cloud Infrastructure (OCI), y que se espera que esté ampliamente disponible en el segundo semestre de 2025.
Uno de los anticipos clave del evento fue el del rack de IA de próxima generación, llamado «Helios», que se basará en las GPU AMD Instinct Serie MI400 de próxima generación, las CPU AMD EPYC «Venice» basadas en «Zen 6» y las tarjetas de red AMD Pensando «Vulcano».
“Helios está diseñado para ofrecer hasta diez veces más rendimiento en los modelos más avanzados, y será el acelerador de IA de mayor rendimiento, tanto para entrenamiento a gran escala como para inferencia», aseguró Dieckmann.
“Siete de los diez principales clientes de IA utilizan ahora GPU AMD Instinct. Nuestra familia de socios y usuarios finales crece mes a mes. Ofrecemos un rendimiento inigualable, un sólido ecosistema de software abierto y ventajas competitivas en precio y rendimiento”.
Andrew Dieckmann,
En su presentación, también previa a la sesión general ofrecida por Su, Soni Jiandani, SVP & GM Networking Technology and Solutions Group de AMD, se refirió a las tarjetas de red Pensando Pollara 400 AI NIC, diseñada para acelerar las aplicaciones que se ejecutan en redes back-end, alcanzando velocidades Ethernet de hasta 400 Gbps:
“La red es esencial para construir sistemas de IA a escala de rack. Escalar a ese nivel sería imposible sin productos de red sólidos y abiertos. Por lo tanto, Pollara ofrece hoy una mejora del 15% en los tiempos de finalización de trabajos, una disponibilidad del clúster un 10% superior y un coste total de propiedad un 16% inferior en comparación con la competencia”. Y agregó que «con la arquitectura a escala de rack Helios, estamos llevando la tecnología al siguiente nivel, mediante una rápida innovación en escala, fiabilidad y rendimiento. Todo ello con un ecosistema verdaderamente abierto”.
Software abierto y soporte para desarrolladores
La compañía destacó, además, que la última versión de su open-source AI software stack, ROCm 7, está diseñada para satisfacer las crecientes demandas de la IA generativa y las cargas de trabajo de computación de alto rendimiento, a la vez que mejora drásticamente la experiencia del desarrollador en todos los ámbitos. Ofrece soporte mejorado para frameworks estándar de la industria, mayor compatibilidad de hardware y nuevas herramientas de desarrollo, controladores, API y bibliotecas para acelerar el desarrollo y la implementación de IA.
«Dentro de ROCm 7, la inferencia ha sido el área de mayor enfoque. Hemos innovado e invertido en cada capa de pila de inferencia , desde las últimas mejoras en frameworks, implementando optimizaciones para el servicio, soportando tipos de dats avanzados, hasta ofrecer núcleos de rendimiento extremadamente alto, e implementado los algoritmos más recientes. Hemos facilitado la creación e integración de núcleos con abstracciones bióicas y hemos realizado un trabajo significativo en nuestra pila de comunicaciones», dijo Vamsi Boppana, Vicepresidente sénior del Grupo de Inteligencia Artificial en AMD.
«Colaboramos estrechamente con nuestro ecosistema para entregar aplicaciones de extremo a extremos que integran flujos de trabajo y sistemas de datos existentes, a veces estrcuturados y a veces no estructurados».
Vamsi Boppana, Vicepresidente sénior del Grupo de Inteligencia Artificial en AMD.
El ejecutivo anunció también que para la segunda mitad de este año ROCm estará incluido directamente en las principales distribuciones. «Windows será un sistema operativo de primera clase, totalmente soportado y listo para producción. Y podrás usarlo en le mejor portfolio de clientes d ela industria, capaz de ofrecer experiencias revolucionarias de IA, todo de forma local», señaló.
«Construimos ROCm para empoderar al mundo con una plataforma de software abierta que desbloquea la innovación en IA para todos, en todas partes. Nuestra estrategia de unir fuerzas con el ecosistema abierto está dando frutos, juntos estamos ofreciendo una alternativa creíble y de alto rendimiento», destacó.
Otro de los anuncios destacados fue el de la amplia disponibilidad de AMD Developer Cloud para las comunidades globales de desarrolladores y código abierto. Diseñado específicamente para el desarrollo rápido y de alto rendimiento de IA, los usuarios tendrán acceso a un entorno de nube completamente gestionado con las herramientas y la flexibilidad necesarias para iniciar proyectos de IA y crecer sin límites. Con ROCm 7 y AMD Developer Cloud, AMD afirma estar reduciendo las barreras y ampliando el acceso a la computación de última generación, con colaboraciones estratégicas como Hugging Face, OpenAI y Grok.
«El futuro de la IA no lo va a construir una sola emprea, ni va a suceder dentro de un ecosistema cerrado. Se va a forjar porque todos están trayendo sus mejores ideas. Y se va a forjar, porque estamos innovando juntos».
Lisa Su.
A modo de conclusión del evento Lisa Su compartió una reflexión personal: «Cuando pienso en el último año, realmente ha redefinido lo que significa el progreso en IA. Ha avanzado a un ritmo como nunca antes visto en la informática moderna como nunca antes visto en nuestras carreras, e incluso en nuestras vidas. Esta comunidad —yo la llamo el ecosistema de IA— está realmente en el centro de todo lo que importa. … Lo veo como un viaje. Siempre he dicho que esto sería un viaje, y me siento increíblemente orgullosa de lo lejos que hemos llegado. Pero más que eso, me enorgullece profundamente ver cómo estamos uniendo tecnología, talento y alianzas para hacer que la IA sea más poderosa, más accesible y más útil para todos».
Ecosistema de socios
Los clientes de AMD analizaron cómo utilizan las soluciones de IA de AMD para entrenar los modelos de IA líderes actuales, potenciar la inferencia a escala y acelerar la exploración y el desarrollo de la IA:
- Meta detalló cómo ha aprovechado múltiples generaciones de soluciones AMD Instinct y EPYC en su infraestructura de centro de datos, con Instinct MI300X ampliamente implementado para la inferencia Llama 3 y Llama 4. Meta continúa colaborando estrechamente con AMD en las hojas de ruta de IA, incluyendo planes para aprovechar las GPU y plataformas de las series MI350 y MI400.
- Oracle Cloud Infrastructure es uno de los primeros líderes de la industria en adoptar la infraestructura de IA a escala de rack abierta de AMD con GPU AMD Instinct MI355X. OCI aprovecha las CPU y GPU de AMD para ofrecer un rendimiento equilibrado y escalable para clústeres de IA, y anunció que ofrecerá clústeres de IA a escala zetta acelerados por los últimos procesadores AMD Instinct con hasta 131 072 GPU MI355X para que los clientes puedan desarrollar, entrenar e inferir IA a escala.
- Microsoft anunció que Instinct MI300X ahora impulsa modelos propietarios y de código abierto en producción en Azure.
- HUMAIN analizó su acuerdo histórico con AMD para construir una infraestructura de IA abierta, escalable, resiliente y rentable que aproveche todo el espectro de plataformas informáticas que solo AMD puede ofrecer.
- Red Hat describió cómo su colaboración ampliada con AMD permite entornos de IA listos para producción, con GPU AMD Instinct en Red Hat OpenShift AI que ofrecen un procesamiento de IA potente y eficiente en entornos de nube híbrida.
- Cohere informó que sus modelos Command escalables y de alto rendimiento se implementan en Instinct MI300X, lo que impulsa la inferencia LLM de nivel empresarial con alto rendimiento, eficiencia y privacidad de datos.
- Astera Labs destacó cómo el ecosistema abierto UALink acelera la innovación y ofrece mayor valor a los clientes, y compartió planes para ofrecer una cartera completa de productos UALink que respalden la infraestructura de IA de próxima generación.
- Marvell se unió a AMD para compartir la hoja de ruta del switch UALink, la primera interconexión verdaderamente abierta, que brinda la máxima flexibilidad para la infraestructura de IA.