Durante la conferencia Six Five Summit, Intel dio a conocer su visión con respecto a la IPU, un dispositivo de red programable, diseñado para permitir que los proveedores de servicios de nube y de comunicaciones reduzcan la sobrecarga y liberen el rendimiento en las unidades de procesamiento central (CPU). Con una IPU, los clientes utilizarán mejor los recursos con una solución segura, programable y estable que les permite equilibrar el procesamiento y el almacenamiento.
“La IPU es una nueva categoría de tecnologías y uno de los pilares fundamentales de nuestra estrategia de nube. Amplía nuestras capacidades de SmartNIC y está diseñada para abordar la complejidad y las ineficiencias del centro de datos moderno. En Intel creamos soluciones e innovamos junto a nuestros clientes y socios — la IPU ejemplifica esta colaboración”, dijo Guido Appenzeller, director de tecnología del Grupo de Plataformas de Datos de Intel.
Cómo funciona
La IPU es un dispositivo de red programable que maneja de manera inteligente los recursos de infraestructura a nivel del sistema, acelerando con seguridad esas funciones en el centro de datos. Permite que los operadores de la nube cambien a una arquitectura de almacenamiento y red totalmente virtualizados, y a la vez mantengan un alto rendimiento y previsibilidad, así como un alto grado de control.
La IPU cuenta con funcionalidad dedicada para acelerar aplicaciones modernas que se construyen usando una arquitectura basada en microservicios en el centro de datos. Investigaciones de Google y Facebook han demostrado que la sobrecarga de la comunicación de microservicios puede consumir entre el 22%1 al 80%2 de los ciclos de CPU.
Con la IPU, un proveedor de nube puede manejar de manera segura las funciones de infraestructura, al mismo tiempo que permiten que el cliente controle íntegramente las funciones de la CPU y la memoria del sistema.
Algunas de las principales ventajas de la IPU son:
- Acelera las funciones de infraestructura, incluyendo la virtualización del almacenamiento y la red, así como la seguridad con aceleradores de protocolo dedicados.
- Libera los núcleos de la CPU trasladando a la IPU las funciones de virtualización de almacenamiento y red que anteriormente se llevaban a cabo en el software de la CPU.
- Mejora el uso del centro de datos permitiendo una colocación más flexible de las cargas de trabajo.
- Permite que los prestadores de servicio de nube personalicen la implementación de la función de infraestructura a la velocidad del software.
“Como resultado de la colaboración de Intel con la mayoría de los hiperescaladores, Intel ya es el líder en volumen del mercado de las IPU con nuestros componentes Xeon-D, FPGA y Ethernet”, señaló Patty Kummrow, vicepresidenta del Grupo de Plataformas de Datos y gerente general del Grupo de Productos Ethernet en Intel. “Las primeras plataformas IPU basadas en FPGA de Intel están implementadas con muchos proveedores de servicios de nube y nuestra primera IPU ASIC está en fase de pruebas”.
Andrew Putnam, ingeniero en jefe de Hardware de Microsoft, dijo: “Desde antes de 2015, Microsoft fue pionera en el uso de SmartNIC reconfigurables en múltiples generaciones de servidores Intel para descargar y acelerar las pilas de red y almacenamiento a través de servicios como Azure Accelerated Networking. La SmartNIC nos permite liberar núcleos de procesamiento, escalar a anchos de banda e IOPS de almacenamiento mucho mayores, añadir nuevas capacidades después de la implementación y proporcionar un rendimiento predecible a nuestros clientes de la nube. Intel ha sido nuestro socio de confianza desde el inicio, y nos complace ver que sigue promoviendo una sólida visión de la industria para el centro de datos del futuro con la unidad de procesamiento de infraestructura.”
Lo que sigue
Intel lanzará más plataformas IPU basadas en FPGA y ASIC dedicados. Estas soluciones estarán habilitadas por una potente base de software que les permite a los clientes construir un software de orquestación de nube de vanguardia.
Los centros de datos en evolución necesitarán una nueva arquitectura inteligente en la que la computación heterogénea, distribuida y a gran escala, trabaje en conjunto y esté conectada a la perfección, para aparecer como una sola plataforma de computación. Esta nueva arquitectura ayudará a resolver los retos actuales de recursos varados, flujos de datos congestionados y seguridad de plataformas incompatibles. Esta nueva arquitectura de centro de datos inteligente tendrá tres categorías de computación: CPU para computación de propósito general, XPU para aceleración específica de aplicaciones o cargas de trabajo, e IPU para la aceleración de la infraestructura, que estarán conectadas a través de redes programables para utilizar eficientemente los recursos del centro de datos.