Inicio Blog

Saul Escalante, de Infoblox: “Nuestra plataforma es la base de la estrategia de seguridad”

En diciembre pasado Infoblox nombró a Saul Escalante como su Vicepresidente para América Latina. Consultado sobre sus planes para la región y la estrategia que partners y clientes regionales pueden esperar de la compañía, el flamante ejecutivo puso en primer lugar el empoderamiento de la cadena de valor, que arranca en los empleados de Latinoamérica para luego abarcar el ecosistema de partners y luego llegar a los clientes. 

“En segundo lugar, buscamos fortalecer el ecosistema de partners. Estamos tomando algunas acciones, como por ejemplo entregarles productos gratuitos para que ellos puedan hacer demos. Y también estamos reclutando nuevos partners que tengan una vocación de nube”, mencionó Escalante como tercer pilar de la estrategia. ”Muchos clientes están yendo a la nube, tienen equipos o dispositivos en Amazon Web Services, en Microsoft Azure, en Google Cloud, pero a menudo el cliente no sabe dónde tiene cada uno de sus assets. Infoblox les entrega esa información”.

Una avalancha para los canales

“Avalancha” es el nombre que, internamente, Escalante le dio a su business plan. “Tiene cuatro pilares fundamentales. Uno está basado en Universal DDI, que es una solución que administra los DNS de una compañía (tanto de Infoblox como de otros proveedores de servicios, que incluyen AWS, Microsoft y Google Cloud, por citar algunos). A esto hay que sumarle la gestión del DHCP y el IPAM. Todo se hace desde una consola centralizada en un portal, y a eso le llamamos Universal DDI”. El ejecutivo explicó que este pilar está bajo la responsabilidad del Gerente de Ingeniería de Preventa para Latinoamérica.

“El siguiente pilar es Seguridad, bajo el liderazgo de Ernesto Schettino. Y luego tenemos el área de Partners y Eecosistema de Distribución liderado por Enrique Leon Romero. El cuarto pilar tiene que ver más con Renovaciones”, completó Escalante. El ejecutivo considera que en materia de Seguridad, los partners de Infoblox tienen un inmenso greenfield. “Infoblox actualmente atiende al 90% de las mil empresas más grandes del mundo. Tenemos países donde toda la Banca es cliente nuestro. Pero en Latinoamérica hay mucho por crecer.” 

Escalante atribuye el potencial de crecimiento a que los CISOs no le han prestado mucha atención a la seguridad del DNS, “pese a que es el primer vector que tienen que tocar todas las máquinas antes de salir a navegar. Se han enfocado mucho en la parte de firewall o IPS, pero han descuidado el DNS. De hecho, cuando corremos un script para probar si es posible inyectar o filtrar datos a través de esos sistemas, el 100% falla”.

Hoy Infoblox está llevando adelante una labor de concientización en todos los niveles. “Infoblox es el único fabricante que realmente te da una seguridad en el Puerto 53, en el DNS. Los fabricantes tradicionales hacen publicidad de las amenazas relacionadas con los vectores que ellos atienden. Pero no hay mucha publicidad alrededor de la falencia que tiene el DNS. Y ahí es donde entramos nosotros”, destacó Escalante.

Las claves de la estrategia

A nivel de talentos, Escalante apuesta a “enriquecer a todo el equipo de Infoblox y a los partners en cuanto al conocimiento. No solo de nuestra solución, sino del tema de seguridad y de infraestructura en general. Es aportar un granito de arena al vendedor del partner que está en Costa Rica, en Panamá o en cualquier punto de Latinoamérica, para que aumente su conocimiento en cuanto a seguridad, infraestructura y nubes”.

Esta habilitación tiene impacto en cómo se siente respaldado el cliente final. “Una de las cosas que más satisfacción me dan en mi trabajo es cuando los clientes dicen que llevan diez años con Infoblox, y que en esos años no experimentaron una sola caída de red”. Del mismo modo, siempre en el marco del plan Avalancha, Escalante apunta a que los empleados de Infoblox realicen un trabajo de excelencia y accedan a los beneficios de superar las métricas establecidas. 

«Los fabricantes tradicionales hacen publicidad de las amenazas relacionadas con los vectores que ellos atienden. Pero no hay mucha publicidad alrededor de la falencia que tiene el DNS. Y ahí es donde entramos nosotros».

Consultado sobre el tamaño del staff en América Latina, el ejecutivo reconoce que está creciendo. “De hecho, se está por anunciar la apertura de una oficina en México. Estamos en el proceso legal de inscribir esa entidad, pero ya hay vacantes laborales para esa oficina”. En este contexto, Escalante insistió en que la empresa no vende directo, y recordó a sus partners de distribución mayorista: TD SYNNEX, Ingram Micro, Grupo Dice y Dacas.

La base para todo lo demás

“Infoblox es la plataforma sobre la cual los clientes pueden empezar a construir su estrategia. Tanto de seguridad, como de multinube, como de IoT. Nosotros participamos en todas esas iniciativas”, definió Escalante. “Cuando entras con ese discurso ante los clientes, automáticamente te abren la puerta porque no hay otro fabricante que pueda dar ese discurso”

«Infoblox es la plataforma sobre la cual los clientes pueden empezar a construir su estrategia. Tanto de seguridad, como de multinube, como de IoT».

El hecho de poder gestionar la seguridad del DNS, además, evita la navegación por sitios contaminados. “Infoblox va a prevenir que esa comunicación se complete y nos convertimos en una tecnología preventiva o proactiva. De hecho, evitamos con 68 días de anticipación el tráfico hacia sitios anómalos. Eso representa un gran beneficio para el cliente, porque automáticamente lo que estás diciendo es 30, 40 o 50% de su tráfico malicioso ya no va a llegar al firewall, al IPS y, por lo tanto, vas a tener un ahorro sustancial en cuanto a la capacidad de equipos que vas a necesitar en el perímetro”.

“Somos la plataforma sobre la cual establecer la estrategia de Seguridad. Eso le da a los partners un elemento diferenciador respecto a cualquier otro fabricante a la hora de estar hablando con los clientes. Y, por supuesto, nos cercioramos de que los partners que trabajan los diferentes negocios se lleven su margen como corresponde”, aseguró el ejecutivo. 

Red Hat amplía su alianza con NVIDIA para acelerar la IA empresarial

NVIDIA y Red Hat expanden su alianza para impulsar la IA empresarial.

Red Hat anunció una expansión histórica de su colaboración con NVIDIA para alinear las tecnologías de código abierto empresariales con la rápida evolución de la Inteligencia Artificial (IA) empresarial y los avances de la IA a escala de rack. A medida que la industria avanza más allá de servidores individuales hacia sistemas unificados de alta densidad, Red Hat planea ofrecer el punto de partida para esta transformación con Red Hat Enterprise Linux for NVIDIA, una edición especializada de la plataforma Linux empresarial global, optimizada para la plataforma NVIDIA Rubin y ajustada para impulsar futuras operaciones en producción en Red Hat OpenShift y Red Hat AI.

«Las innovaciones arquitectónicas de NVIDIA han convertido a la IA en un imperativo, demostrando que el stack de cómputo definirá el futuro de la industria», afirmó Matt Hicks, Presidente y CEO en Red Hat. Además, comentó que, para seguir el ritmo de estos cambios, ambas compañías tienen la intención de ofrecer soporte del Día Cero para las arquitecturas NVIDIA más recientes en todo el portafolio de nube híbrida e Inteligencia Artificial de Red Hat. “Juntos, estamos impulsando la próxima generación de la IA empresarial con el poder del código abierto”, subrayó.

Por su parte, Jensen Huang, Fundador y CEO en NVIDIA, destacó que Red Hat ha revolucionado la computación empresarial con un software de código abierto de alto rendimiento. «En la era de la IA, todo el stack de cómputo está siendo reinventado desde cero, incluyendo chips, sistemas, middleware, modelos y el ciclo de vida de la IA. Juntos, NVIDIA y Red Hat están industrializando el código abierto para llevar la IA a las empresas, comenzando con la plataforma NVIDIA Vera Rubin”, explicó.

Con la llegada de 2026, muchas organizaciones se están preparando para migrar la IA de la experimentación a la producción, con estrategias jerárquicas y herramientas centralizadas que incorporan agentes de Inteligencia Artificial y otros avances. Sin embargo, esta transición requiere un stack de infraestructura estable, de alto rendimiento y más seguro, desde la arquitectura subyacente hasta el software que se ejecuta sobre ella. En este contexto, la plataforma NVIDIA Rubin, con la nueva CPU NVIDIA Vera y las avanzadas GPU NVIDIA Rubin, está diseñada para proporcionar un salto gigantesco en inteligencia para la IA agéntica y el razonamiento avanzado.

La base para fábricas de IA a escala giga

La plataforma NVIDIA Vera Rubin introduce innovaciones transformadoras, incluyendo la CPU Vera, la CPU más eficiente energéticamente para fábricas de IA a escala giga, el procesador de datos BlueField-4 y la solución a escala de rack NVIDIA Vera Rubin NVL72. 

La intención de Red Hat por proporcionar soporte del Día Cero a la plataforma NVIDIA Rubin en todo el portafolio de Red Hat AI abarca: 

  • Red Hat Enterprise Linux: actúa como un puente entre este hardware avanzado y los complejos ecosistemas de software necesarios para la IA moderna. Como elemento fundamental del portafolio de soluciones de nube híbrida de Red Hat, incluyendo Red Hat OpenShift y Red Hat AI, Red Hat Enterprise Linux introducirá el soporte a NVIDIA Confidential Computing en todo el ciclo de vida de la Inteligencia Artificial, ofreciendo recursos de seguridad mejorados para GPU, memoria y datos de modelos, además de proporcionar a las organizaciones comprobación criptográfica de que sus cargas de trabajo de IA más sensibles mantienen protecciones integrales.
  • Red Hat OpenShift: ofrece a los clientes de la plataforma NVIDIA Rubin acceso inmediato a la plataforma de nube híbrida empresarial basada en Kubernetes. Para automatizar la implementación, la configuración y la gestión del ciclo de vida de la computación acelerada, Red Hat OpenShift añade soporte para el software de infraestructura de NVIDIA y las bibliotecas NVIDIA CUDA X, brindando un rendimiento optimizado para una amplia gama de cargas de trabajo aceleradas. Además, el soporte para NVIDIA BlueField proporciona redes mejoradas, gestión avanzada de clústeres y una mejor utilización de recursos a través de una experiencia operativa de nivel empresarial más consistente.
  • Red Hat AI: la plataforma corporativa de IA lista para producción de Red Hat incluirá nuevas integraciones con NVIDIA, expandiendo así el soporte para la inferencia distribuida con los modelos de código abierto de NVIDIA en Red Hat AI Inference Server, Red Hat Enterprise Linux AI y Red Hat OpenShift AI. Esto incluye esfuerzos conjuntos de Red Hat y NVIDIA para expandir el soporte más allá de la familia NVIDIA Nemotron a otros modelos abiertos de NVIDIA, incluyendo aquellos dirigidos a visión por computadora, robótica y áreas verticales específicas.

Red Hat Enterprise Linux for NVIDIA se mantiene totalmente alineado con la versión principal del sistema operativo. A medida que las mejoras de Red Hat Enterprise Linux for NVIDIA lleguen a Red Hat Enterprise Linux, los clientes podrán hacer la transición fácilmente según sus demandas específicas de producción, con la confianza de que los sistemas de producción mantendrán los niveles de rendimiento esperados y la compatibilidad de aplicaciones.

Con este nuevo enfoque, Red Hat y NVIDIA ofrecen a los clientes una plataforma Linux de clase empresarial, lista para el lanzamiento y totalmente compatible con las últimas innovaciones en IA a escala de rack. Esto incluye:

  • Interoperabilidad validada: Red Hat Enterprise Linux es un sistema operativo validado para los aceleradores más recientes de NVIDIA. Esto ayuda a garantizar que los recursos de hardware y software funcionen perfectamente para reducir la fricción en la implementación.
  • Gestión optimizada de drivers: las organizaciones pueden acceder a drivers validados de NVIDIA GPU OpenRM y al toolkit CUDA a través de los repositorios de Red Hat Enterprise Linux, simplificando la gestión del ciclo de vida de la infraestructura de IA.
  • Postura de seguridad mejorada: Red Hat Enterprise Linux proporciona una base reforzada con características como SELinux y gestión proactiva de vulnerabilidades, esenciales para proteger datos sensibles en entornos de entrenamiento e inferencia de IA.
  • Consistencia en la nube híbrida: ya sea on-premises, en el edge o en la nube pública, Red Hat Enterprise Linux ofrece una plataforma unificada para la infraestructura de computación acelerada NVIDIA, reduciendo los silos de infraestructura y disminuyendo el costo total de propiedad.
  • El ecosistema comercial de código abierto más grande de la industria: Red Hat Enterprise Linux cuenta con el soporte de un amplio ecosistema de proveedores de software, hardware y nube, permitiendo una mayor libertad de elección y capacidades más profundas en entornos de nube híbrida.

El soporte de Red Hat Enterprise Linux para la plataforma NVIDIA Vera Rubin coincidirá con su disponibilidad general en el segundo semestre de 2026. Los clientes podrán acceder a los drivers más recientes y a las herramientas de integración a través del Red Hat Customer Portal.

Cinco propósitos para proteger la temporada 2026 de la vida digital, según Kaspersky

Kaspersky ciberseguridad.

Como si fuera una serie, la vida digital de los usuarios está por iniciar una nueva temporada. El problema es que muchos llegan al estreno sin saber cómo protegerse. En este contexto, un estudio de Kaspersky revela que más de la mitad de las personas en América Latina no sabe cómo blindarse contra la ciberdelincuencia, lo que significa que muchos empiezan el año sin los hábitos, conocimientos ni herramientas necesarias para enfrentar un panorama de amenazas cada vez más sofisticado.

Hoy, los estafadores automatizan y personalizan sus trampas, encontrando nuevas formas de infiltrarse en la vida digital de las personas, a medida que incorporan más servicios en línea, dispositivos inteligentes y plataformas digitales a su rutina. Esa mayor conectividad simplifica la vida cotidiana, pero también aumenta la exposición a riesgos que pueden ir desde la filtración de información y accesos no autorizados a cuentas hasta el robo de identidad e infección y control de equipos para cometer más ataques.

Arrancar 2026 sin orden en la vida digital es como hacer una serie sin guión, donde la historia se enreda sola. Por eso, expertos de Kaspersky recomiendan a los usuarios establecer cinco propósitos digitales para mantener su entorno digital más seguro y sin escenas imprevistas:

  • Eliminar personajes secundarios que ya no aportan a la historia, como las suscripciones que ya no se usan: en promedio, el 57% de los latinoamericanos tiene al menos una suscripción activa en plataformas de música y TV en streaming. Al cancelar las que ya no se usan, se reduce la cantidad de datos personales, como correo electrónico, nombre, número de teléfono y datos de pago que están circulando en Internet.
  • No repetir capítulos: los expertos de la compañía recomiendan no utilizar las mismas contraseñas para todos los sitios y mantenerlas actualizadas. Según el estudio, uno de cada diez latinoamericanos no recuerda cuándo cambió por última vez la clave de su correo o redes sociales, lo que probablemente significa que llevan meses o incluso años sin renovarlas, haciéndolas más fáciles de adivinar o susceptibles a filtraciones. 
  • Evitar dramas de final de temporada y respaldar la información: aunque el 67% de los latinoamericanos realiza copias en la nube, muchos desconocen que estos respaldos también deben protegerse para impedir que alguien más acceda. En este sentido, la compañía señaló que soluciones como Kaspersky Premium permiten elegir qué documentos respaldar y almacenarlos de forma automática y cifrada.
  • No dejar que los villanos tomen el protagónico de los dispositivos móviles: solo en el último año, la región registró 1.8 millones de ataques de troyanos bancarios, un malware que roba información financiera y que, junto con otras amenazas, apunta directo a los teléfonos, donde cada vez se realizan más transacciones y actividades clave. Además de datos sensibles, los criminales también buscan el número telefónico de los usuarios, porque muchos servicios envían códigos de verificación por SMS y, si lo controlan, pueden entrar a cuentas donde esté registrado. 
  • Que nadie más controle la historia, siempre es mejor asegurar tu hogar inteligente: el 59% de los latinoamericanos tiene al menos un dispositivo inteligente o de Internet de las Cosas (IoT) en sus casas: asistentes de voz, cámaras, focos, televisiones o refrigeradores conectados que son cada vez más comunes, pero subestimados en seguridad. Si alguien accede a ellos, puede ver lo que graba una cámara, manipular otros dispositivos o usarlos para acceder a la red. 

“El inicio de un nuevo año es como el arranque de una nueva temporada de nuestra vida digital, y vale la pena detenernos a revisar el guión con el que vamos a protegerla. Hoy, muchas personas siguen conectándose sin saber cómo cuidar sus datos y dispositivos frente a amenazas que evolucionan tan rápido como nuestra forma de consumir servicios y plataformas en internet. Establecer propósitos digitales permite pasar de ser espectadores a protagonistas de nuestra propia seguridad en línea, porque no solo reduce el riesgo de robo de información o accesos no autorizados a nuestras cuentas, también nos da mayor control y confianza sobre cómo interactuamos con el ecosistema digital del que somos parte”, comenta Fabiano Tricarico, Director de Productos para el Consumidor en América Latina en Kaspersky.

Ante esta situación, comenzar el año con hábitos digitales más conscientes y responsables no es solo una recomendación técnica, sino una decisión clave para disfrutar de una experiencia en línea más segura. Al asumir estos propósitos, los usuarios pueden escribir una historia distinta, donde la prevención, el control y la tranquilidad sean los verdaderos protagonistas.

Lenovo revoluciona la IA empresarial en tiempo real con nuevos servidores de inferencia

Lenovo en CES 2026

En Tech World CES 2026 en The Sphere en Las Vegas, Lenovo anunció un conjunto de servidores, soluciones y servicios empresariales diseñados específicamente para cargas de trabajo de inferencia de IA, expandiendo el portafolio de ventajas de IA Híbrida de Lenovo. Preparando el escenario para la próxima era de la IA, Lenovo está avanzando en el campo de la inferencia y eliminando obstáculos para potenciar casos de uso de IA en el mundo real, que van desde transacciones de clientes en tiendas hasta aplicaciones avanzadas de atención médica, incluidos diagnósticos rápidos y planificación de tratamientos en entornos de cuidados críticos.

La inferencia de IA marca un cambio fundamental significativo: de entrenar Grandes Modelos de Lenguaje (LLM, por sus siglas en inglés) a aprovechar modelos ya entrenados para analizar datos no vistos y tomar decisiones instantáneas en entornos del mundo real. Pasar del entrenamiento a la acción convierte el capital significativo comprometido con la IA en un retorno de negocio tangible y en una ventaja competitiva valiosa. La nueva suite de inferencia de IA de Lenovo maximiza el retorno, unificando y conectando los datos de una organización a través de la nube, el centro de datos y el borde para potenciar las cargas de trabajo de IA dondequiera que ofrezcan el mayor rendimiento. Futurum estima que el mercado global de infraestructura de inferencia de IA crecerá de 5.000 millones de dólares en 2024 a 48.800 millones de dólares en 2030, lo que representa una CAGR del 46,3% en seis años.

«Las empresas de hoy necesitan una IA que pueda convertir cantidades masivas de datos en información en el momento en que se crea», dijo Ashley Gorakhpurwalla, Vicepresidenta ejecutiva de Lenovo y Presidenta de Lenovo Infrastructure Solutions Group (ISG). «Con la nueva infraestructura optimizada para inferencia de Lenovo, estamos brindando a los clientes esa ventaja en tiempo real: transformar grandes cantidades de datos en inteligencia instantánea y procesable que impulse decisiones más sólidas, mayor seguridad y una innovación más rápida».

Servidores avanzados Lenovo ThinkSystem y Lenovo ThinkEdge 

Los nuevos servidores de inferencia de IA de Lenovo ofrecen una gama de opciones para cargas de trabajo empresariales de todos los tamaños. Con capacidades de GPU, memoria y red de última generación, el portafolio optimizado para inferencia de Lenovo incluye:

  • Lenovo ThinkSystem SR675i: Servidor de inferencia de IA de rendimiento potente, diseñado para ejecutar LLM completos en cualquier lugar con escalabilidad masiva, para las cargas de trabajo más grandes y simulación acelerada en entornos de fabricación, atención médica crítica y servicios financieros.
  • Lenovo ThinkSystem SR650i: Potencia de inferencia de IA acelerada con computación de GPU de alta densidad, escalable y fácil de implementar en centros de datos existentes.
  • Lenovo ThinkEdge SE455i: Súper compacto y diseñado para entornos minoristas, de telecomunicaciones e industriales, este servidor innovador lleva las capacidades de inferencia de IA a cualquier lugar donde se encuentren los datos, con latencia ultra baja y fiabilidad robusta, y en un clima flexible entre -5°C y 55°C.

Con la capacidad de refrigeración por aire y líquido líder de Lenovo Neptune para ayudar a resolver los cuellos de botella energéticos de las organizaciones que demandan el máximo rendimiento en cargas de trabajo de IA, y el modelo de precios de pago por uso de Lenovo TruScale, las empresas están capacitadas para lograr el máximo rendimiento y eficiencia sin comprometer la agilidad, la seguridad o el presupuesto.

Soluciones de IA con impacto en el mundo real 

El hardware de IA empresarial de Lenovo es la base de la Fábrica de IA Híbrida de Lenovo (Lenovo Hybrid AI Factory), un marco modular validado para construir y operar soluciones de IA a escala. Como parte de la Ventaja de IA Híbrida de Lenovo (Lenovo Hybrid AI Advantage) más amplia que abarca infraestructura, software y servicios, esto les permite a las organizaciones lograr resultados en el mundo real. Las plataformas de IA Híbrida de Lenovo ofrecen un sistema cohesivo basado en nuevos servidores de inferencia de IA de Lenovo, almacenamiento, redes, software y orquestación que unifican la infraestructura, los datos y la gestión. Esto garantiza un tiempo de comercialización más rápido, mitiga los riesgos de implementación y optimiza el rendimiento con el valor adecuado para las organizaciones. Las nuevas plataformas aportan el extenso valor del ecosistema de IA de Lenovo a las necesidades de inferencia de IA de las organizaciones empresariales:

  • Inferencia de IA Híbrida de Lenovo con Lenovo ThinkAgile HX y Nutanix AI: capacidad de inferencia compartida centralizada que permite la máxima utilización de la GPU, rendimiento mejorado, escalabilidad y menores costos en un entorno virtualizado.
  • Inferencia de IA Híbrida de Lenovo con Red Hat AI: Una plataforma escalable y de nivel empresarial diseñada para implementaciones robustas de IA. Ofrece flexibilidad, seguridad mejorada y rendimiento para soportar cargas de trabajo complejas y crecimiento futuro, ideal para organizaciones que buscan una base resiliente para la IA agéntica.
  • Inferencia de IA Híbrida de Lenovo con Canonical Ubuntu Pro: Una solución rentable y optimizada que facilita el inicio con la IA. Perfecta para una implementación y experimentación rápidas, combina la facilidad de uso con funciones de seguridad esenciales para un punto de entrada accesible a la IA agéntica, aprovechando la escalabilidad del Lenovo ThinkSystem SR650i.

Servicios y soluciones de inferencia de IA para impulsar el proceso de adopción 

A medida que evoluciona la IA, los Servicios de la Fábrica de IA Híbrida de Lenovo (Lenovo Hybrid AI Factory Services) proporcionan nuevos servicios de asesoramiento, implementación y gestión de inferencia para establecer y optimizar entornos de inferencia de alto rendimiento adaptados a las cargas de trabajo de inferencia específicas de cada negocio e industria, lo que facilita la adaptación de las empresas:

  • Rendimiento óptimo del servidor desde el primer día con fiabilidad, eficiencia y escalabilidad a largo plazo para comenzar a obtener un rápido retorno de la inversión (ROI).
  • Asistencia continua y fiable para la gestión del centro de datos por parte de Lenovo Premier Support.
  • Financiación flexible de Infraestructura como Servicio (IaaS) de Lenovo TruScale para ayudar a escalar fácilmente a medida que evolucionan las operaciones de inferencia y IA.

Los nuevos Servicios de IA Híbrida de Lenovo para inferencia están diseñados para facilitar la inferencia en cada paso del proceso, ayudando a las empresas a acelerar la adopción y maximizar el valor. Estos Servicios de IA refuerzan el compromiso de Lenovo de apoyar el ciclo de vida completo del producto empresarial, brindando a las organizaciones la capacidad de innovar con confianza y gestionar operaciones de IA de misión crítica con fiabilidad y escala.

Creando experiencias fuera de este mundo 

Los avances empresariales de Lenovo están diseñados para clientes de todos los tamaños, uno de los cuales es la estructura esférica más grande de la Tierra y el lugar del anuncio de hoy. Lanzada en The Sphere en Las Vegas durante Lenovo Tech World en CES, la tecnología propia de Lenovo respalda la creación de contenido de Sphere Studios. Cientos de servidores Lenovo ThinkSystem SR655 V3, impulsados por procesadores AMD EPYC y computación acelerada NVIDIA, se utilizan para desarrollar contenido y experiencias inmersivas en este lugar único. 

Visible desde el espacio exterior, The Sphere sirve como un ejemplo grandioso de las capacidades transformadoras de la infraestructura de Lenovo.

Ryzen AI: Cómo posicionar la propuesta de valor de AMD en los clientes

Gustavo Ramírez, de AMD

A pesar de los vaivenes del mercado, existen motores bien definidos (como la adopción masiva de la IA en el espacio de consumo, la necesidad de actualizar las PCs a Windows 11) que abren oportunidades de negocios para los canales de distribución. En este contexto, consultado sobre la mejor manera de plantear la inversión en AMD Ryzen AI y su mensaje de IA local a los clientes, Gustavo Ramírez, Gerente de Ventas de Consumo de AMD para América Latina, observó: “Desde AMD, la principal recomendación para el canal es mantener una actitud abierta a la asesoría que la compañía brinda durante las reuniones de planeación. En estos espacios, AMD acompaña a sus socios para explicar el portafolio, las diferencias entre las generaciones actuales y la estrategia basada en tres pilares clave: cómputo para la vida diaria, gaming e Inteligencia Artificial. Este enfoque permite entender cómo cada equipo integra capacidades de IA según su posicionamiento y caso de uso”.

Ejemplo de esto es el rango de desempeño que AMD ofrece para la IA (desde los 16 hasta los 55 TOPS) lo que permite al canal comprender y presentar un abanico completo de alternativas. “Así, es posible recomendar al usuario final desde una computadora preparada para ejecutar funciones básicas de IA, hasta soluciones más avanzadas capaces de soportar cargas de trabajo de inteligencia artificial local directamente en el equipo”, añadió Ramírez, para quien, en el refuerzo del mensaje de IA local, “AMD mantiene un compromiso claro por ofrecer a los usuarios capacidades avanzadas de IA que se ejecutan directamente en el equipo. Esto es posible gracias a los procesadores de última generación de la serie Ryzen 300, desde Ryzen 5 y Ryzen 7 hasta la familia superior Ryzen 9, que integran hasta 55 TOPS, permitiendo ejecutar modelos y experiencias de IA de forma local y sin dependencia permanente de Internet”.

Esta arquitectura, comentó el ejecutivo, es la que posibilita que los usuarios descarguen aplicaciones y modelos cuando tienen conexión, y posteriormente trabajen de manera completamente offline. “Un ejemplo es LM Studio, una aplicación de escritorio que AMD destaca para desarrollar y experimentar con LLM de forma local. Una vez descargados, los modelos funcionan sin conexión, indicando claramente al usuario que están operando offline y mostrando métricas de asertividad en sus respuestas”.

“El uso de IA local ofrece beneficios clave en seguridad y privacidad, ya que elimina la comunicación constante con internet y reduce el riesgo de intrusiones o accesos no autorizados. Además, garantiza continuidad operativa en escenarios donde no hay conectividad, como estudiantes o profesionales que trabajan en campo, en entornos académicos, médicos o de investigación, y que requieren consultar información o interactuar con modelos de IA de manera confiable y segura”, añadió Ramírez.

Los beneficios de Ryzen AI en el contexto híbrido

Las AI PCs hacen posible el procesamiento de cargas de Inteligencia Artificial en la nube y localmente, en los equipos, siguiendo un modelo de uso híbrido que es adecuado para el diseño, la programación, la generación de contenido audiovisual y el entretenimiento, entre otros propósitos. En este orden, y respecto de Ryzen AI, Ramírez aclaró que “la propuesta de AMD no se limita a integrar múltiples capacidades en un mismo chip, sino a la forma en que estos componentes interactúan de manera inteligente. La arquitectura permite un balance dinámico de recursos entre la unidad central de procesamiento (CPU), la unidad gráfica (GPU) y la unidad neuronal (NPU), asignando capacidad de cómputo según las necesidades reales de cada aplicación. Dado que no todos los programas demandan los mismos recursos, el sistema aprovecha los momentos de capacidad ociosa para redistribuirlos de forma eficiente”.

Ramírez considera que este enfoque permite a los usuarios diseñar, renderizar video, programar, entrenarse en lenguajes de desarrollo o, en otro momento del día, disfrutar de streaming, videojuegos o videoconferencias, “todo con una experiencia fluida y consistente. Gracias a este balanceo inteligente, no es indispensable contar con una tarjeta gráfica dedicada para acceder a estas ventajas, ya que la arquitectura de AMD ofrece un rendimiento integral desde el propio procesador”.

«Desde AMD, la principal recomendación para el canal es mantener una actitud abierta a la asesoría que la compañía brinda durante las reuniones de planeación. En estos espacios, AMD acompaña a sus socios para explicar el portafolio, las diferencias entre las generaciones actuales y la estrategia basada en tres pilares clave: cómputo para la vida diaria, gaming e Inteligencia Artificial».

Esta tecnología ya está disponible en los equipos que están presentes en el mercado colombiano, “responde a los múltiples perfiles que hoy conviven en un mismo usuario: creador de contenido, gamer, profesional y consumidor de entretenimiento. Además, AMD se diferencia al ser el único fabricante que ofrece hasta 55 TOPS en el procesador neuronal integrado, un nivel de capacidad que actualmente no tiene comparación en el mercado y que refuerza su liderazgo en arquitecturas orientadas a inteligencia artificial local”, sintetizó Ramírez.

Ryzen AI en el contexto de las Copilot+ PCs

Teniendo en cuenta la necesaria migración que buena parte del parque informático está encarando hacia Windows 11 y con Copilot aspirando a jugar un rol central en el día a día, Ramírez recordó que AMD cuenta con un portafolio amplio de procesadores y plataformas que cumplen con el requisito de al menos 40 TOPS establecido por Microsoft para la certificación de los sistemas como Copilot+ PCs

“De hecho, la compañía ofrece más de cien plataformas disponibles en la región que alcanzan o superan los 50 TOPS, lo que las califica automáticamente para esta certificación. Este portafolio extenso permite a los socios y fabricantes contar con múltiples opciones para atender distintos segmentos y casos de uso, manteniendo el cumplimiento de los estándares de Copilot+ PC. La disponibilidad de más de un centenar de plataformas certificables refleja la solidez y escalabilidad de la oferta de AMD en el ecosistema de PCs con capacidades avanzadas de Inteligencia Artificial”, definió Ramírez.

Ryzen AI como vehículo de eficiencia

El portafolio de AMD está desarrollado sobre una arquitectura de 4 nanómetros (téngase en cuenta que el ADN humano mide unos 120 nanómetros). “Esta proporción ilustra el nivel de miniaturización alcanzado y explica por qué una arquitectura más delgada permite una mayor densidad del procesador, mejor control térmico y un consumo energético significativamente más eficiente”, señaló el gerente regional de Ventas de Consumo. 

“Gracias a esta eficiencia —agregó—, los equipos con tecnología AMD reducen la necesidad de activar constantemente el sistema de enfriamiento, lo que se traduce en una mayor autonomía. En escenarios de uso cotidiano, como trabajo en Excel, navegación, reproducción de video o videollamadas, la batería puede superar las 18 horas, y en condiciones optimizadas alcanzar hasta 20 o 21 horas, dependiendo de las tareas ejecutadas”.

Este beneficio también es relevante para los gamers. “Aunque el juego suele realizarse conectado a la corriente para maximizar el rendimiento, cuando se utiliza la batería, la arquitectura eficiente de AMD permite que el sistema de enfriamiento no esté funcionando de forma permanente. Esto mejora la duración de la batería y optimiza el balance de recursos, logrando que los procesos se ejecuten de manera más rápida y eficiente, con menor consumo de tiempo y energía”, aseguró Ramírez, para quien la menor dependencia de componentes auxiliares también incide positivamente en la eficiencia, lo que se traduce en un mejor rendimiento general, mayor autonomía y una experiencia más estable para distintos perfiles de uso.

Herramientas para comenzar la conversación

“AMD cuenta con interlocutores plenamente capacitados para brindar conversaciones de asesoría, capacitación y acompañamiento a sus socios en cada país en los que estamos presentes —destacó Ramírez—. Esta cobertura permite desarrollar charlas, entrenamientos y sesiones especializadas en distintas instancias, según las necesidades del canal, ya sea de forma directa con los representantes locales de AMD o a través de espacios formales de formación”. Adicionalmente, la compañía pone a disposición un sistema de autoservicio para capacitación que no depende de entrenamientos presenciales: AMD Arena

«La disponibilidad de más de un centenar de plataformas certificables refleja la solidez y escalabilidad de la oferta de AMD en el ecosistema de PCs con capacidades avanzadas de Inteligencia Artificial».

Esta plataforma reúne un amplio catálogo de cursos y recursos para socios, con contenidos disponibles tanto en inglés como en español. Incluye entrenamientos técnicos, materiales comerciales y sesiones como los Meet the Expert, foros trimestrales con expertos que quedan grabados y pueden consultarse posteriormente.

“El acceso a AMD Arena es sencillo: los usuarios solo deben registrarse en la plataforma, crear un perfil y, en caso de ser requerido, indicar el nombre de un sponsor o contacto local de AMD”, explicó Ramírez. A partir de allí, pueden construir su propia currícula de aprendizaje, elegir el nivel de profundidad técnica y acceder de manera continua a una biblioteca actualizada de contenidos, asegurando que siempre cuenten con materiales de consulta y formación alineados con el portafolio y la estrategia de AMD.

Acronis y Licencias OnLine articulan su plan de expansión hacia los segmentos SMB y Enterprise

Salvador Rico, de Acronis.

Acronis y Licencias OnLine trabajan en conjunto para potenciar la llegada a nuevos canales y reducir la complejidad operativa mediante un agente único de monitoreo. En este contexto, Salvador Rico, Distribution Account Manager de Acronis para la región de NOLA (México, Centroamérica y el Caribe), comparte detalles de la estrategia actual de la compañía, la cual se centra en la convergencia de soluciones tecnológicas y el fortalecimiento de su relación con los MSPs.

La propuesta de valor de la empresa se estructura sobre tres pilares fundamentales: la protección de datos, la ciberseguridad y la organización administrativa para los prestadores de servicio. Según el ejecutivo, aunque el respaldo de datos se mantiene como una fuente principal y punto de entrada al portafolio de la compañía, la firma ha reorientado su posicionamiento para ser considerada hoy en día como una «solución de ciberseguridad integral».

A su vez, destaca que el foco de la compañía está puesto en todo lo referido a cloud, segmento al cual Acronis desarrolla herramientas impulsadas por Inteligencia Artificial (IA) con el objetivo de simplificar la administración de los tenants.

La integración tecnológica busca resolver la fragmentación operativa. Según explica Rico, Acronis es una solución de ciberseguridad en la cual convergen soluciones tanto de ciberseguridad como de administración y, principalmente, de respaldo de datos.

Esta unificación permite a los proveedores evitar el uso de múltiples interfaces. «Hemos estado desarrollando la herramienta para que para nuestros proveedores de servicios sea mucho más fácil la administración y no tener que estar switcheando por diferentes consolas de monitoreo», señala.

Alianza con Licencias OnLine y proyección de mercado

En cuanto al trabajo conjunto con Licencias OnLine, la estrategia apunta a profundizar la penetración en el mercado. «Para el próximo año, lo que esperamos entre Acronis y Licencias Online es poder llegar a más canales, a diferentes negocios», comentaron desde la compañía. En esta línea, Rico señala que actualmente mantienen una posición en los segmentos de pequeñas y medianas empresas y el sector enterprise.

La colaboración con el mayorista permite a la marca mantener cercanía con los clientes y establecer planes de trabajo a mediano plazo, superando las barreras geográficas que a menudo limitan las reuniones a formatos virtuales.

De cara al año 2026, la hoja de ruta de Acronis prioriza el desarrollo continuo de su herramienta y el incremento del portafolio, específicamente en áreas de automatización derivadas de la IA.

En este sentido, el ejecutivo enfatiza la importancia de que estas capacidades se integren de forma intrínseca en la plataforma: «El tema de la Inteligencia Artificial cobra muchísima relevancia y estamos explorando poder tener nuestras soluciones impulsadas por esta tecnología y que éstas puedan estar nativamente, que es nuestro sello como Acronis, todo en la misma consola, en un mismo agente nativo».

El modelo comercial acompaña esta estructura técnica, operando de manera mensualizada en la parte de cloud, aunque también mantienen disponibilidad para entornos on-premise mediante su oferta de corporate cloud. «Lo que buscamos es poder potencializar todavía más nuestro producto con un tema de automatización», concluye.

Hitachi Vantara y Red Hat, una alianza que acelera la nube híbrida y la virtualización empresarial

Hitachi Vantara y Red Hat impulsan la nube híbrida y la virtualización.

Hitachi Vantara anunció una nueva solución que combina la Virtualización OpenShift de Red Hat con la Plataforma de Almacenamiento Virtual One (VSP One) de la empresa subsidiaria de Hitachi. 

La nueva plataforma integrada permite a las organizaciones reducir la dependencia de los hipervisores y adoptar una base de operaciones digitales unificada en la Nube Híbrida, que ayuda a modernizar los entornos de virtualización obsoletos, brindando resiliencia y rendimiento corporativo.

Este lanzamiento surge en un momento en que las empresas se enfrentan con un incremento en los costos de licencia de virtualización, flexibilidad limitada y mayor presión por modernizarse. Según una encuesta reciente, la creciente complejidad de las licencias de los proveedores y el aumento de precios han hecho que el mantenimiento rutinario sea un ejercicio costoso, con casi tres cuartas partes (73%) de las empresas auditadas y más de un tercio reconociendo que el cumplimiento, incluida la gestión de exceso de licencias, es el principal problema que enfrentan las organizaciones. 

Para abordar estos desafíos, la nueva solución de Hitachi Vantara integra OpenShift de Red Hat, que incluye la funcionalidad de Virtualización de la compañía, una arquitectura de referencia prevalidada, y una robusta herramienta de virtualización que simplifica y acelera la transición desde plataformas heredadas.

VSP One ofrece resiliencia multi-sitio y funciones de migración en caso de fallas integradas, con la capacidad de respaldar operaciones continuas durante las interrupciones. La solución permite a las organizaciones operar Máquinas Virtuales (VM) y contenedores en paralelo en la misma plataforma, reduciendo la necesidad de una infraestructura de virtualización independiente, evitando así entornos duplicados, lo que disminuye los costos en hardware, licencia de software y operación.

Además, la VSP One ofrece una plataforma de almacenamiento de datos unificada para almacenamiento en bloques, archivos y objetos en todos los sistemas locales y en la Nube, lo que mejora la visibilidad de los datos y ofrece una experiencia consistente donde quiera que residan los datos.

“Las organizaciones en todos los sectores buscan modernizar la infraestructura de TI, además de evitar la dependencia de los proveedores y controlar los costos”, afirmó Dan McConnell, Vicepresidente Senior de Infraestructura Corporativa en Hitachi Vantara.

La solución de Hitachi Vantara con la Virtualización OpenShift de RedHat ofrece beneficios clave para que las organizaciones se modernicen y migren desde plataformas de virtualización tradicionales, incluyendo:

  •     Menores costos operativos y dependencia de los proveedores.
  •     Entrega y migración de aplicaciones aceleradas.
  •     Resiliencia corporativa: la VSP One está diseñada para admitir disponibilidad continua del 100% de los datos y cargas de trabajo críticas.
  •     Automatización y visibilidad end-to-end.

Esta propuesta refuerza la estrategia de Hitachi Vantara de ofrecer a las organizaciones una alternativa moderna, flexible y rentable para la virtualización, alineada con las exigencias actuales de la nube híbrida. Al unificar almacenamiento, virtualización y automatización en una sola plataforma, las empresas pueden acelerar su transformación digital, reducir riesgos operativos y recuperar el control de sus costos, sentando así las bases para una infraestructura de TI más ágil, resiliente y preparada para el futuro.

CES 2026: NVIDIA anunció sus novedades para el ecosistema RTX y GeForce NOW

NVIDIA CES 2026.

Durante la primera jornada del CES 2026, NVIDIA presentó distintas novedades para elevar la experiencia gamer: el anuncio de DLSS 4.5, la disponibilidad de monitores G-SYNC Pulsar, RTX Remix Logic, nuevas integraciones de la tecnología ACE, actualizaciones de la aplicación de NVIDIA, nuevas integraciones de tecnología RTX para videojuegos —junto con un nuevo hito en títulos compatibles con DLSS—, así como más dispositivos y formas de jugar con GeForce NOW.

NVIDIA DLSS 4.5 ofrece una importante actualización con un modelo Transformer de 2.ª generación para Super Resolution y Multi Frame Generation dinámico 6X. Este anuncio representa un nuevo estándar que introduce Dynamic Multi Frame Generator y un nuevo modo de Multi Frame Generation 6X. DLSS 4.5 puede generar hasta cinco frames adicionales por cada frame renderizado en comparación con los métodos tradicionales, aumentando dinámicamente el rendimiento y permitiendo experiencias de juego a más de 240 cuadros por segundo con path tracing utilizando GPUs GeForce RTX Serie 50. 

Los nuevos monitores NVIDIA G-SYNC con Pulsar y tecnología Ambient Adaptive permiten disfrutar de una experiencia de juego más fluida y clara con más de 1,000 Hz de claridad de movimiento efectiva.

Los monitores G-SYNC Pulsar de Acer, AOC, ASUS y MSI estarán disponibles a partir del 7 de enero a las 6:00 a.m. PT en tiendas seleccionadas, con más stock y tiendas sumándose en las semanas siguientes. 

Cada uno de los monitores G-SYNC Pulsar también incluye la nueva tecnología G-SYNC Ambient Adaptive, que permite ajustar automáticamente la temperatura de color y el brillo para una visualización óptima a cualquier hora del día o de la noche.

Por su parte, la nueva actualización de NVIDIA RTX Remix incorpora un sistema avanzado para efectos gráficos dinámicos que le permite a los fans revivir sus aventuras favoritas con un nivel visual de gran calidad. Además, los ejecutivos anticiparon que una nueva actualización de RTX Remix, RTX Remix Logic, estará disponible a finales de este mes a través de la NVIDIA app, la cual también tendrá una actualización e incorporará DLSS 4.5 Super Resolution y un nuevo GeForce Game Ready Driver. 

La actualización de NVIDIA App mejorará aún más la calidad de imagen en más de 400 juegos y aplicaciones. La NVIDIA App 11.0.6 beta incluye varias nuevas funciones. En Sistema > Pantallas, todas las configuraciones restantes de NVIDIA Surround se han trasladado desde el Panel de Control de NVIDIA, añadiendo opciones para corrección de biseles y atajos de teclado. Los usuarios de laptops con Advanced Optimus ahora pueden ver los nombres completos de las aplicaciones que bloquean la activación de la función, en lugar de solo los nombres .exe, ayudando a identificar programas problemáticos. 

En Sistema > Avanzado, el “Modo Debug” desactiva instantáneamente todo el overclocking y los ajustes de voltaje aplicados por cualquier aplicación, ayudando a los usuarios y a los equipos de soporte a determinar si estos son responsables de la inestabilidad del sistema, hasta que el sistema se reinicie. También hay una opción avanzada para “Desarrollador” relacionada con el uso de herramientas de perfilado y depuración que gamers y usuarios en general pueden dejar sin cambios.

Además, el nuevo Game Ready Driver añade soporte para 63 pantallas G-SYNC Compatible, incluyendo nuevos modelos de TV 2026 de LG y Samsung, que ofrecen una experiencia base de tasa de refresco variable (VRR) validada, haciendo la experiencia de juego más fluida y agradable. Finalmente, NVIDIA Broadcast incorpora la luz clave virtual para más usuarios de PC. La nueva actualización versión 2.1 mejora el efecto Virtual Key Light para optimizar el rendimiento, haciéndolo disponible para GPUs GeForce RTX 3060 y superiores. Además, ahora maneja más condiciones de iluminación, ofrece un control más amplio de temperatura de color y utiliza un mapa base HDRi actualizado para un estilo de iluminación de dos luces clave común en transmisiones profesionales.

Otro de los anuncios de esta edición fue que NVIDIA llevará GeForce RTX a más dispositivos con nuevas apps de GeForce NOW para PC, Linux y Amazon Fire TV. Esta expansión responde a las principales solicitudes de la comunidad y extienden el gaming RTX a escritorios y salas de TV, mientras que el soporte adicional para controles de vuelo HOTAS profundiza la inmersión y claridad en juegos de simulación. El inicio de sesión optimizado con Gaijin mejora aún más la experiencia al permitir que los jugadores accedan a sus juegos más rápido.

GeForce NOW continúa ampliando su catálogo de más de 4,500 juegos con próximos títulos AAA que se lanzarán en la nube al mismo tiempo que en PC, incluyendo 007 First Light, Active Matter, Resident Evil Requiem y Crimson Desert.

Con estos anuncios, NVIDIA reafirma su compromiso con la innovación gráfica y la experiencia de juego, marcando un nuevo punto de referencia en rendimiento, calidad visual e inmersión de cara a la próxima generación de juegos y hardware.

CES 2026: Intel presentó sus nuevos procesadores Core Ultra Series 3, diseñados para las exigencias de la IA

INTEL CES 2026.

El Consumer Electronics Show (CES) 2026, celebrado en Las Vegas del 6 al 9 de enero, fue el escenario elegido por Intel para presentar sus nuevos procesadores Intel Core Ultra Series 3 —sobre la arquitectura Panther Lake—: la primera plataforma de AI PC construida sobre la tecnología Intel 18A, el nodo de fabricación más avanzado de la compañía hasta el momento.

“Es un honor ser parte de este evento. Estamos atravesando un momento en el que la computación está siendo redefinida: la Inteligencia Artificial está transformando cada flujo de trabajo, cada industria y cada dispositivo, desde la nube hasta el edge”, señaló Lip-Bu Tan, CEO en Intel. Además, afirmó que la misión de la compañía es “hacer que esa inteligencia sea accesible y eficiente”.

“Lo que verán a lo largo de estas jornadas son avances tecnológicos que solo pueden lograrse mediante una integración estrecha entre diseño, procesos y tecnología de empaquetado”, comentó Lip-Bu Tan, quien también destacó que la compañía cumplió con su compromiso de enviar los primeros productos con procesadores 18A hacia finales de 2025, y que están aumentando la producción de toda la serie Core Ultra 3.

Lip-Bu Tan, CEO en Intel.

“Solo Intel puede hacer que todos estos componentes funcionen de manera integrada: arquitectura, procesos de fabricación, empaquetado avanzado y software. Se trata de una integración completa de la plataforma, que redefine la evolución de la PC”.

Lip-Bu Tan, CEO en Intel.

Diseñados y fabricados con el nodo de proceso más avanzado de Estados Unidos, los nuevos procesadores de Intel buscan redefinir la informática tanto para consumidores como para empresas, ofreciendo un rendimiento mejorado, mayor duración de la batería y capacidades gráficas avanzadas. Además, desde la compañía señalaron que esta generación de procesadores  habilita la próxima fase de la Inteligencia Artificial en el edge: la acción basada en agentes.

Según Jim Johnson, Senior VP, Client Computing Group en Intel, la industria tecnológica se encuentra en un punto de inflexión estratégica. “Intel no es la excepción. Por eso, en 2026 estamos entregando productos líderes en un nodo de proceso de vanguardia, que combinan computación, gráficos e Inteligencia Artificial, y escalándolos con los clientes para lograr la plataforma de AI PC más amplia que se haya construido”, explicó.

Johnson detalló que, al momento de diseñar la nueva generación de procesadores, el fabricante se centró en mejorar la eficiencia energética, añadiendo mayor rendimiento de CPU, una GPU más potente, expandiendo la capacidad de cómputo para IA y garantizando la compatibilidad de las aplicaciones. “Los resultados han sido sumamente positivos, ya que logramos la misma calidad, mejor rendimiento y menor costo de nube. Es un gran primer paso hacia donde creemos que está orientada la industria”, detalló, y subrayó: “Nuestra perspectiva es que la Inteligencia Artificial se moverá cada vez más hacia el borde, especialmente en un mundo con crecientes limitaciones en la infraestructura de centros de datos. Para que esto suceda, se debe lograr una correcta integración con la nube”.

El pase de diapositivas requiere JavaScript.

“Series 3 representa el comienzo de la nueva era de la Inteligencia Artificial híbrida. Poner esto en práctica es un gran desafío técnico”, indicó Johnson. “En este contexto, nuestra nueva plataforma Intel IA Super Builder es un avance que ayuda a que los modelos en cliente y nube comiencen a trabajar mejor juntos. La Inteligencia Artificial local ejecuta tareas de forma segura manteniendo los datos en los dispositivos, mientras que la IA en la nube se encarga del razonamiento global, la planificación y la orquestación de múltiples agentes”, explicó. 

Dentro de la línea móvil Intel Core Ultra Serie 3, los nuevos procesadores Intel Core Ultra X9 y X7 incorporan la tarjeta gráfica integrada Intel Arc de mayor rendimiento. Estos modelos, están diseñados específicamente para usuarios multitarea que manejan cargas de trabajo avanzadas, como juegos, creación de contenido y productividad en movimiento. Entre sus características más destacadas se incluyen hasta 16 núcleos de CPU, 12 núcleos Xe y 50 TOPS de NPU, lo que permite un rendimiento multithread hasta un 60% superior, un rendimiento en juegos un 77% más veloz y hasta 27 horas de duración de la batería.

Series 3 también incluye procesadores Intel Core, diseñados específicamente para impulsar sistemas móviles convencionales. Aprovechando la misma arquitectura fundamental de los Intel Core Ultra Serie 3, la línea Intel Core permite diseños de portátiles más eficientes y de mayor rendimiento a precios más bajos.

Arquitectura inteligente 

La clave de esta arquitectura es la optimización energética. El chip permite que las aplicaciones asignen automáticamente la tarea al procesador más adecuado: CPU, GPU o NPU. Para Johnson, otro distintivo de la Serie 3 es la integración de aceleradores de Inteligencia Artificial, que permiten alcanzar hasta 180 TOPS de desempeño combinando CPU, GPU y NPU en un solo chip, facilitando así la manera en que se realizan las tareas de inspección, mantenimiento predictivo y monitoreo inteligente en el borde. 

La nueva arquitectura de Intel habilita escenarios de uso en distintas áreas, como la creación de contenido, el desarrollo de software, análisis de video y automatización inteligente, ofreciendo resultados inmediatos y mayor control sobre los datos. 

“Es difícil comprender que hace apenas dos años todo se enfocaba en funciones básicas —como el desenfoque de fondo o la supresión de ruido— impulsadas por la IA. Luego evolucionamos hacia la IA generativa (GenAI) y modelos avanzados que comenzaron a reescribir lo ‘personal’ en nuestras computadoras personales, ofreciendo algo diferente para cada uno de nosotros y optimizando nuestro trabajo diario”, analizó el Senior VP del Client Computing Group en Intel.

“Hemos realizado inversiones significativas en ingeniería de software e infraestructura, apoyando a los Proveedores de Software Independientes con las herramientas necesarias para desarrollar nuevas aplicaciones de IA optimizadas para la CPU, GPU y NPU de Intel”, comentó Johnson. “Por ejemplo, en Adobe Premiere Pro, los usuarios aprovechan la GPU Arc para realizar búsquedas de medios de manera más eficiente. En Zoom, su modelo de IA se ejecuta en nuestra NPU de bajo consumo, habilitando funciones como la luz virtual, que ilumina automáticamente la imagen del usuario mientras atenúa el fondo”, detalló.

Jim Johnson, de Intel.

“Intel Core Ultra Series 3 marca un salto significativo: ofrece hasta un 60% más de rendimiento que “Lunar Lake” Series 2 y lo hace con mayor eficiencia, incluso utilizando menos núcleos de alto rendimiento. Este foco extremo en la eficiencia energética impacta directamente en las aplicaciones que usamos todos los días”.

Jim Johnson, Senior VP, Client Computing Group en Intel.

Intel Core Ultra Series 3 ofrece ventajas competitivas en cargas de trabajo críticas de IA en el borde, con un rendimiento de LLM hasta 1,9 veces superior. También ofrece hasta 2,3 veces mejor rendimiento por vatio por dólar en análisis de video de extremo a extremo, y hasta 4,5 veces más rendimiento en modelos de acción de lenguaje de visión (VLA). La aceleración de IA integrada permite reducir el costo total de propiedad (TCO), al consolidar la computación en una única solución de sistema en chip (SoC), superando así a las arquitecturas tradicionales que combinan múltiples CPU y GPU. 

Características Intel Core Ultra Serie 3.

Según Johnson, al combinar OpenVINO —el conjunto de herramientas de software open source desarrollado por Intel— con acceso completo a 96 GB de memoria, el SoC puede manejar un modelo de hasta 70 mil millones de parámetros en contexto de 32 bits. “Un contexto más grande es clave para un uso más complejo y profundo de los LLMs localmente; ninguno de nuestros competidores puede igualar esto”, afirmó. También señaló que el SoC incluye una NPU de bajo consumo de 48 TOPS, la cual permanece siempre activa. Esto permite efectuar inferencias en tiempo real para casos de uso como videoconferencias y seguridad, sin afectar el rendimiento general del sistema. 

Más allá del hardware 

Durante su presentación, el Senior VP, Client Computing Group en Intel, remarcó que la apuesta del fabricante va más allá que solo el hardware. “Nuestra visión consiste en redefinir el stack completo de una AI PC, integrando de manera conjunta hardware, software, SO, firmware y la infraestructura de inteligencia local para todos los dispositivos-cliente en el edge, incluso las computadoras personales. Sin embargo, esto solo es posible si se puede escalar a gran volúmen”, señaló.

En este sentido, desde Intel señalaron que la compañía ya ha entregado al mercado más de 4 ZettaOPS de capacidad de cómputo de inferencia, una potencia equivalente a decenas de centros de datos distribuidos operando directamente en el edge. Esta base instalada permite que la Inteligencia Artificial se ejecute de forma local, con menor latencia, mayor privacidad y menores costos operativos, sin renunciar a la integración con la nube.

“En Intel trabajamos junto a nuestros socios para anticipar lo que viene. Hoy, la próxima gran ola es la Inteligencia Artificial, presente en todas las industrias y en cada conversación. Se trata de una oportunidad enorme para redefinir lo que significa el Personal Edge Computing, sin perder de vista los fundamentos: PCs más silenciosas, con alto rendimiento y batería para todo el día”, concluyó Jim Johnson.

Los nuevos procesadores Intel Core Ultra Series 3 ya se encuentran disponibles. Desde la compañía prevén que estos sistemas estarán a disposición a nivel mundial a partir del 27 de enero, sumando nuevos lanzamientos durante el primer semestre del año. 

El pase de diapositivas requiere JavaScript.

AMD presenta la cartera de procesadores Ryzen AI Embedded

AMD presenta la cartera de procesadores Ryzen AI Embedded

AMD presentó los procesadores AMD Ryzen AI Embedded, una nueva gama de procesadores x86 integrados diseñados para impulsar aplicaciones basadas en IA en el borde. Desde cabinas digitales para automóviles y atención médica inteligente hasta IA física para sistemas autónomos, incluyendo robótica humanoide, los nuevos procesadores de las series P100 y X100 ofrecen a fabricantes de equipos originales (OEM), proveedores de primer nivel y desarrolladores de sistemas y software de los mercados automotriz e industrial computación de IA eficiente y de alto rendimiento en un encapsulado BGA (matriz de rejilla de bolas) compacto para los sistemas integrados más limitados.

Los procesadores integran la arquitectura de núcleo de alto rendimiento “Zen 5” para un rendimiento x86 escalable y control determinista, una GPU RDNA 3.5 para visualización y gráficos en tiempo real, y una NPU XDNA 2 para aceleración de IA de baja latencia y bajo consumo, todo en un solo chip. 

“A medida que las industrias buscan experiencias de IA más inmersivas e inteligencia en dispositivos más rápida, necesitan un alto rendimiento sin añadir complejidad al sistema”, afirmó Salil Raje, Vicepresidente sénior y Director general de AMD Embedded. “El portafolio Ryzen AI Embedded reúne capacidades líderes de CPU, GPU y NPU en un solo dispositivo, lo que permite sistemas automotrices, industriales y autónomos más inteligentes y con mayor capacidad de respuesta”.

La cartera incluye los procesadores de la serie P100, orientados a las experiencias en vehículos y la automatización industrial, y los procesadores de la serie X100, que cuentan con un mayor número de núcleos de CPU y rendimiento AI TOPS para sistemas autónomos y de IA físicos más exigentes.

Diseñados específicamente para experiencias en el vehículo

Los procesadores de la serie P100, que se lanzan hoy, con 4-6 núcleos, están optimizados para las cabinas digitales de próxima generación y las HMI (interfaces hombre-máquina), lo que permite gráficos en tiempo real para pantallas de infoentretenimiento en el vehículo, interacciones impulsadas por IA y capacidad de respuesta multidominio. Ofrecen un aumento de rendimiento de hasta 2,2 veces en multihilo y monohilo en comparación con la generación anterior, lo que garantiza un control determinista en un encapsulado BGA compacto de 25×40 mm. Con un rango operativo de 15-54 vatios y compatibilidad con entornos de -40 °C a +105 °C, están diseñados para sistemas periféricos hostiles, con limitaciones de energía y espacio, y ciclos de vida de 10 años.

Gráficos inmersivos y aceleración de IA en el dispositivo

Los procesadores de la serie P100 integran una GPU RDNA 3.5, que ofrece una velocidad de renderizado estimada en un 35 % superior para alimentar hasta cuatro pantallas digitales 4K (o dos 8K) simultáneamente a 120 fotogramas por segundo. El motor de códec de vídeo AMD permite una transmisión de alta fidelidad y baja latencia, y una reproducción ágil sin sobrecargar la CPU.

La NPU AMD XDNA 2 de próxima generación ofrece hasta 50 TOPS, para un rendimiento de inferencia de IA hasta 3 veces mayor. La arquitectura XDNA 2 combina la comprensión de la voz, los gestos y las señales ambientales utilizando modelos de IA compatibles que incluyen transformadores de visión, LLM compactos y CNN.

Pila de software abierta y segura para un diseño de sistemas más rápido

Los procesadores Ryzen AI Embedded proporcionan un entorno de desarrollo consistente con una pila de software unificada que abarca la CPU, la GPU y la NPU. En la capa de tiempo de ejecución, los desarrolladores se benefician de bibliotecas de CPU optimizadas, API de GPU de estándar abierto y un entorno de ejecución de IA con arquitectura XDNA nativa, habilitado mediante el software Ryzen AI.

Toda la pila de software se basa en el marco de virtualización de código abierto basado en el hipervisor Xen, que aísla de forma segura múltiples dominios del sistema operativo. Esto permite que Yocto o Ubuntu gestionen la HMI, FreeRTOS gestione el control en tiempo real y Android o Windows admitan aplicaciones más completas, todo ello ejecutándose de forma segura en paralelo. Con una base de código abierto, compatibilidad con sistemas operativos a largo plazo y una arquitectura compatible con ASIL-B, ayudan a los clientes a reducir costes, simplificar la personalización y acelerar la producción de sistemas automotrices e industriales.