El evento, llevado a cabo el pasado 6 de diciembre en San Jose, California, fue testigo de la apuesta definitiva de AMD en la era de Inteligencia Artificial aplicada a la computación, lanzamiento que tuvo como aliados estratégicos nada menos que a Microsoft, Meta, Oracle, Dell Technologies, HPE, Lenovo, Supermicro, Arista, Broadcom y Cisco en lo que refiere a los nuevos aceleradores de IA para centros de datos serie Instinct MI300: y de Acer, Asus, Dell, HP, Lenovo y Razer que ofreceran al mercado notebooks equipadas con los procesadores móviles AMD Ryzen Serie 8040 (ver nota).
«Este ha sido un año increíble, con muchos productos nuevos y la innovación que ha atravesado toda nuestra industria. Pero hoy todo se trata de Inteligencia Artificial; tenemos muchas soluciones de IA y noticias para compartirles», arrancó Lisa Su apenas iniciado el evento. «Hace un año OpenAI lanzaba ChatGPT. Desde ese punto en adelante, la IA no solo ha progresado, más bien ha sido explosiva. La experiencia nos ha demostrado que la IA no es solo algo cool, es el futuro de la computación. En AMD realmente vemos a la IA como la tecnología con más capacidades de transformación de los últimos 50 años. Quizás lo único que se le asemeje sea la introducción del internet, pero la diferencia con la IA es que su adopción se da mucho más rápido», sostuvo.
«La IA puede aplicarse en muchos aspectos de nuestra vida, puede mejorar la salud, habilitar nuevos sistemas que permitan mejorar la productividad de nuestros negocios, puede aplicarse a la industria de la robótica, seguridad y habilitar nuevas herramientas para los creadores de contenido».
«La clave para todo esto es la IA Generativa, que requiere una inversión significativa en nueva infraestructura. Este mercado es enorme», destacó.
“Los aceleradores de la Serie AMD Instinct MI300 están diseñados con nuestras tecnologías más avanzadas, ofreciendo un rendimiento líder y estarán en implementaciones empresariales y en la nube a gran escala”, dijo Victor Peng, presidente de AMD. «Al aprovechar nuestro liderazgo en hardware, software y enfoque de ecosistema abierto, los proveedores de nube, fabricantes de equipos originales, y fabricantes de diseño original (OEM y ODM) están llevando al mercado tecnologías que permiten a las empresas adoptar e implementar soluciones impulsadas por IA.”
«La clave para todo esto es la IA Generativa, que requiere una inversión significativa en nueva infraestructura. Este mercado es enorme».
Por el escenario del AMD Advancing AI desfilaron representantes de los principales fabricantes que aprovecharan esta ultima cartera de aceleradores de AMD, como fue el caso de Kevin Scott, CTO Microsoft, compañía que recientemente anunció la nueva Serie de máquinas virtuales (VM) Azure ND MI300x v5, optimizadas para cargas de trabajo de IA y con tecnología de aceleradores AMD Instinct MI300X.
Además, Trish Damkroger, SVP and Chief Product Officer HPC, AI and Labs de HPE, anunció que se espera que El Capitan, una supercomputadora impulsada por una unidad de procesamiento acelerado AMD Instinct MI300A y alojada en el Laboratorio Nacional Lawrence Livermore, sea la segunda supercomputadora de clase exaescala impulsada por AMD que ofrezca más de dos exaflops de rendimiento de doble precisión cuando esté completamente implementada.
Asimismo, Oracle Cloud Infrastructure planea agregar instancias bare metal basadas en AMD Instinct MI300X a las instancias informáticas aceleradas de alto rendimiento para IA de la compañía. Está previsto que las instancias basadas en MI300X admitan OCI Supercluster con redes RDMA ultrarrápidas.
Varios fabricantes de equipos originales importantes también exhibieron sistemas informáticos acelerados, durante el evento AMD Advancing AI. Arthur Lewis, President, Infrastructure Solutions Group at Dell Technologies, presentó el servidor Dell PowerEdge XE9680 con ocho aceleradores AMD Instinct y el nuevo diseño validado de Dell para IA generativa con frameworks de IA impulsados por AMD ROCm.
HPE anunció recientemente el HPE Cray Supercomputing EX255a, el primer acelerador blade de supercomputación impulsado por unidades de procesamiento acelerado (APU) AMD Instinct MI300A, que estará disponible a principios de 2024.
Tambien Lenovo anunció su soporte de diseño para los nuevos aceleradores Serie AMD Instinct MI300 a disposición durante la primera mitad de 2024. Finalmente, Supermicro anunció nuevas incorporaciones a su generación H13 de servidores acelerados por CPUs AMD EPYC de cuarta generación y aceleradores Serie AMD Instinct MI300.
AMD Instinct MI300X
Los aceleradores AMD Instinct MI300X funcionan con la nueva arquitectura AMD CDNA 3. En comparación con los aceleradores AMD Instinct MI250X de la generación anterior, MI300X ofrece casi un 40% más de unidades de cómputo, 1,5 veces más capacidad de memoria, 1,7 veces más ancho de banda de memoria teórico máximo, así como soporte para nuevos formatos matemáticos como FP8 y sparsity; todo orientado a cargas de trabajo de IA y HPC.
Los LLM actuales continúan aumentando en tamaño y complejidad, y requieren cantidades masivas de memoria y computación. Los aceleradores AMD Instinct MI300X cuentan con 192 GB de capacidad de memoria HBM3, la mejor de su clase, así como un ancho de banda de memoria máximo de 5,3 TB/s2 para ofrecer el rendimiento necesario para cargas de trabajo de IA cada vez más exigentes. La AMD Instinct es una plataforma de IA generativa construida sobre un diseño OCP estándar de la industria con ocho aceleradores MI300X para ofrecer una capacidad de memoria HBM3 de 1,5 TB líder en la industria. El diseño estándar de la industria de la plataforma AMD Instinct permite a los socios OEM diseñar aceleradores MI300X en ofertas de IA existentes y simplificar la implementación y acelerar la adopción de servidores basados en aceleradores AMD Instinct.
La compañía aseguró que, en comparación con la Nvidia H100 HGX, la plataforma AMD Instinct puede ofrecer un aumento de rendimiento de hasta 1,6 veces cuando se ejecuta inferencia en LLM como BLOOM 176B y es la única opción en el mercado capaz de ejecutar inferencia para un modelo de parámetros de 70B, como Llama2. en un único acelerador MI300X; simplificando las implementaciones de LLM de clase empresarial y ofreciendo un costo total de la propiedad (TCO) excepcional.
AMD Instinct MI300A
AMD Instinct MI300A, presentada como la primera APU del mundo para centros de datos enfocada en HPC e IA, aprovecha el apilado 3D y la arquitectura AMD Infinity de cuarta generación para ofrecer un rendimiento líder en cargas de trabajo críticas ubicadas en la convergencia de HPC e IA. Combinan núcleos de GPU AMD CDNA 3 de alto rendimiento, los últimos núcleos de CPU basados en AMD “Zen 4” x86 y 128 GB de memoria HBM3 de próxima generación, para ofrecer 1,9 veces el rendimiento por vatio en cargas de trabajo de computación de alto rendimiento FP32 e IA, en comparación con la generación anterior AMD Instinct MI250X.
Las APU AMD Instinct MI300A se benefician de la integración de núcleos de CPU y GPU en un solo paquete, lo que brinda una plataforma altamente eficiente y, al mismo tiempo, proporciona el rendimiento informático para acelerar el entrenamiento de los últimos modelos de IA. AMD está marcando el ritmo de la innovación en eficiencia energética con el objetivo 30×25 de la compañía de ofrecer una mejora de 30 veces la eficiencia energética en procesadores y aceleradores de servidores para capacitación en IA y HPC entre 2020 y 2025.
La ventaja de las unidades de procesamiento acelerado significa que las APU AMD Instinct MI300A cuentan con memoria unificada y recursos de caché, lo que brinda a los clientes una plataforma GPU fácilmente programable, computación de alto rendimiento, entrenamiento rápido de IA y una impresionante eficiencia energética para impulsar las cargas de trabajo de HPC e IA más exigentes.
Software ROCm
AMD anunció ademas la última plataforma de software abierto AMD ROCm™ 6, así como el compromiso de la compañía de contribuir con bibliotecas de última generación a la comunidad de código abierto, impulsando su visión sobre el desarrollo de software de IA.
El software ROCm 6 aumenta el rendimiento de aceleración de IA en aproximadamente 8 veces cuando se ejecuta en aceleradores de la Serie MI300 en la generación de texto Llama 2 en comparación con el hardware y software de la generación anterior. Además, agrega soporte para varias características clave nuevas para la IA generativa, incluidas FlashAttention, HIPGraph y vLLM, entre otras. Como tal, “AMD está en una posición única para aprovechar los modelos, algoritmos y marcos de software de IA de código abierto más utilizados, como Hugging Face, PyTorch, TensorFlow y otros, impulsando la innovación, simplificando la implementación de las soluciones de IA de AMD y liberando el verdadero potencial. de IA generativa”, aseguro.
AMD también continúa invirtiendo en capacidades de software a través de las adquisiciones de Nod.AI y Mipsology, así como a través de asociaciones estratégicas de ecosistemas como Lamini (que ejecuta LLM para clientes empresariales) y MosaicML (que aprovecha AMD ROCm para permitir la capacitación de Modelos de Lenguaje de Gran Tamaño en aceleradores AMD Instinct con cero cambios de código.
«Espero que puedan ver que la IA es la prioridad absoluta para AMD, nuestro objetivo es llevar innovación al mercado para hacer más de lo que cualquiera pensaba que era posible, porque creemos que por más maravillosa que sea nuestra tecnología, se trata de trabajar juntos, en un ecosistema de partners donde todos de lo mejor de sí para el mercado».
Sobre el final de su exposición, Lisa Su señaló: «Muchos de los productos que hemos enseñado el día de hoy están siendo adoptados por Microsoft, Oracle, Meta, Dell, HP Enterprise, Lenovo, Supermicro y muchos más. Estamos trabajando en conjunto con el ecosistema de desarrolladores de IA. Queremos que esta infraestructura de IA sea abierta. Creemos que la IA debería estar en todas partes, por eso nuestros procesadores expanden nuestra capacidad de cómputo y nuestro liderazgo en IA». Y concluyó: «Espero que puedan ver que la IA es la prioridad absoluta para AMD, nuestro objetivo es llevar innovación al mercado para hacer más de lo que cualquiera pensaba que era posible, porque creemos que por más maravillosa que sea nuestra tecnología, se trata de trabajar juntos, en un ecosistema de partners donde todos de lo mejor de sí para el mercado».