Inicio Blog Página 46

Cisco amplía su alianza con NVIDIA para acelerar la adopción de la IA en las empresas

Cisco ha anunciado planes para ampliar su colaboración con NVIDIA con el fin de proporcionar soluciones de tecnología de IA a las empresas. Las empresas reconocen que la IA es esencial para el crecimiento, pero aún están en una fase temprana de su adopción mientras navegan por la complejidad técnica única y las demandas de seguridad de operar centros de datos preparados para la IA. La asociación ampliada tiene como objetivo ofrecer a las organizaciones flexibilidad y opciones a medida que buscan satisfacer la demanda de cargas de trabajo de IA para una conectividad de alto rendimiento, baja latencia y alta eficiencia energética dentro -y entre- los centros de datos, las nubes y los usuarios.

«Un ecosistema de IA robusto y escalable es clave para impulsar el poder transformador de la IA», dijo Hans Vestberg, Presidente y CEO de Verizon. «Esta asociación ampliada entre Cisco y NVIDIA, al igual que nuestra estrategia y soluciones Verizon AI Connect, se basa en la aceleración y habilitación de cargas de trabajo de IA intensivas en recursos en el Edge de la red».

Las plataformas  de red NVIDIA Spectrum-X Ethernet basada en silicio de Cisco y NVIDIA, constituirá la base de muchas cargas de trabajo de IA empresarial. Al permitir la interoperabilidad entre las arquitecturas de red de ambas compañías, las dos dan prioridad a las necesidades de los clientes de soluciones simplificadas y completas. El objetivo de esta asociación ampliada es permitir a los clientes optimizar sus inversiones en infraestructura de IA con una arquitectura común, utilizando sus herramientas y procesos de gestión existentes, abarcando redes frontales y de back-end.

«Las empresas están sometidas a una inmensa presión para desplegar la IA de forma rápida y eficaz, y muchos líderes luchan por justificar la inversión al tiempo que equilibran los riesgos», afirma Chuck Robbins, Presidente y CEO de Cisco. «Juntos, Cisco y NVIDIA se están asociando para eliminar las barreras para los clientes y garantizar que puedan optimizar sus inversiones en infraestructura para desbloquear el poder de la IA».

«Avanzando a la velocidad de la luz, la IA revolucionará todas las industrias», dijo Jensen Huang, fundador y CEO de NVIDIA. «NVIDIA Spectrum-X es Ethernet mejorada y supercargada para la IA. Junto con las plataformas empresariales de Cisco y su alcance global, podemos ayudar a las empresas de todo el mundo a construir infraestructuras NVIDIA de última generación en su carrera por transformarse con la IA».

Al facilitar la integración y estandarización de la tecnología de Cisco y NVIDIA, los clientes se beneficiarán de los avances tecnológicos actuales y futuros de la plataforma NVIDIA Spectrum-X, como el enrutamiento adaptativo, la telemetría, el control de la congestión y la baja latencia, así como de la cartera más amplia de redes, seguridad y resiliencia digital de Cisco, incluida la plataforma de datos Splunk. A medida que las empresas desarrollan capacidades de IA y entrenan modelos en sus propios datos, tener una estrategia de seguridad integral se vuelve crucial.

Cisco y NVIDIA: Acelerando la adopción de cargas de trabajo de IA en la empresa

Juntas, las dos compañías se comprometen a aportar nuevos niveles de innovación para acelerar la adopción de la IA en las empresas. Centrándose en simplificar el despliegue y las operaciones, al tiempo que se mejora el rendimiento y la visibilidad de las cargas de trabajo, el objetivo de esta asociación más profunda es ofrecer las soluciones Ethernet de mayor rendimiento disponibles para las cargas de trabajo de IA y ampliar la arquitectura Spectrum-X de NVIDIA para incluir Cisco Silicon One, convirtiendo a Cisco en el único socio de silicio compatible con las soluciones Spectrum-X Ethernet. Además, la asociación ampliada ayudará a que los proyectos de IA Ethernet de los centros de datos empresariales pasen del prototipo al despliegue completo, que de otro modo se limitaría a la nube pública o a los servicios SaaS.

Hoy, Cisco y NVIDIA planean desarrollar soluciones conjuntas para sus clientes.

  • Cisco desarrollará switches para centros de datos con la plataforma Spectrum Ethernet de NVIDIA. El enfoque de ecosistema abierto proporcionará a los clientes más opciones y flexibilidad. Las organizaciones podrán estandarizar la plataforma de red Spectrum-X de NVIDIA con arquitecturas basadas en silicio para switches tanto de Cisco como de NVIDIA, lo que reunirá las tecnologías más avanzadas de ambas compañías bajo un mismo tejido de gestión.
  • Cisco colaborará con NVIDIA para crear y validar NVIDIA Cloud Partner (NCP) y arquitecturas de referencia empresariales basadas en NVIDIA Spectrum-X con Cisco Silicon One, Hyperfabric, Nexus, UCS Compute, Optics y otras tecnologías de Cisco.
  • Cisco y NVIDIA están comprometidos con la colaboración y el desarrollo conjunto, con el objetivo de ofrecer a los clientes las soluciones Ethernet de mayor rendimiento. Las empresas tienen previsto seguir colaborando para hacer frente a retos importantes como la gestión de la congestión y el equilibrio de carga, de modo que los clientes puedan escalar y asegurar los despliegues de IA.

Cisco tiene previsto mejorar sus switches Silicon para que sean compatibles con Spectrum-X y las arquitecturas de referencia de NVIDIA. Estas actualizaciones estarán disponibles a mediados del año calendario 2025, incluyendo los productos actuales y futuros Cisco Nexus, Cisco Nexus Hyperfabric y Cisco UCS. El calendario de los nuevos switches Cisco Spectrum se anunciará más adelante.

IBM completa la adquisición de HashiCorp por US$ 6.400 millones y crea una plataforma integral de nube híbrida

IBM anunció que completó la adquisición de HashiCorp, cuyos productos automatizan y protegen la infraestructura que sustenta las aplicaciones de nube híbrida y la IA generativa. Juntas, las capacidades de ambas empresas ayudarán a los clientes a acelerar la innovación, reforzar la seguridad y obtener más valor de la nube.

En la actualidad, casi el 75% de las empresas utilizan la nube híbrida1, que incluye nubes públicas hiperescalares y centros de datos locales, lo que puede permitir una verdadera innovación con un enfoque coherente para ofrecer y gestionar esa infraestructura a escala. Las empresas buscan formas de gestionar y modernizar de forma más eficiente la infraestructura de la nube y las tareas de seguridad, desde la planificación y el diseño iniciales hasta el mantenimiento continuo. Para 2028, se prevé que la IA generativa dará lugar a la creación de mil millones de nuevas aplicaciones nativas de la nube. Para soportar esta escala se requiere una automatización de la infraestructura que va mucho más allá de la capacidad de la mano de obra por sí sola.

«Las organizaciones de todo el mundo buscan desplegar aplicaciones modernas y preparadas para la nube híbrida, que requieren una infraestructura de nube automatizada a una escala significativa», dijo Rob Thomas, Vicepresidente Senior de IBM Software y Director Comercial. «Con esta adquisición, IBM se compromete a seguir invirtiendo y haciendo crecer las capacidades de HashiCorp, y juntos, con la tecnología líder y la amplia comunidad de desarrolladores de HashiCorp, el alcance global y los recursos de I+D de IBM, nuestro objetivo es infundir la tecnología de HashiCorp en cada centro de datos».

«HashiCorp lleva más de una década ayudando a las mayores empresas del mundo a tener éxito en entornos híbridos y multicloud. Hemos visto crecer la nube desde sus orígenes, y hemos participado de primera mano en el cambio que ha traído a la industria», dijo Dave McJannet, CEO de HashiCorp. «Con la historia de IBM, su escala global y sus relaciones con los clientes, HashiCorp puede ahora ampliar nuestro alcance para ayudar a nuestra comunidad de clientes, profesionales y socios a automatizar, asegurar y optimizar su infraestructura cloud, proporcionando una plataforma integral para entornos híbridos».

«HashiCorp ha sido pionera en infraestructura de nube desde los primeros días de la nube pública. Hemos creado una cartera de productos para ayudar a los clientes a adoptar un enfoque nativo de la nube para la gestión del ciclo de vida de la infraestructura y la seguridad que ha sido adoptado por cientos de miles de organizaciones en todo el mundo», dijo Armon Dadgar, CTO y cofundador de HashiCorp. «Estoy encantado de que HashiCorp se una a la familia IBM, donde existe una clara alineación en la visión de hacer posible una infraestructura híbrida para las mayores empresas del mundo. Juntos, podemos seguir invirtiendo profundamente en innovación en I+D y permitir que la próxima generación de aplicaciones se construya y se escale».

Detalles del producto y disponibilidad

  • Las capacidades de HashiCorp permiten a las empresas utilizar la automatización para ofrecer una gestión del ciclo de vida para la infraestructura y la seguridad, proporcionando un sistema de registro para los flujos de trabajo críticos necesarios para entornos híbridos y multi-nube. HashiCorp Terraform es líder en el aprovisionamiento de infraestructuras en estos entornos. Las ofertas de HashiCorp ayudan a los clientes a adoptar un enfoque altamente interoperable para la gestión de múltiples nubes, y complementan el compromiso de IBM con la colaboración de la industria (incluyendo asociaciones profundas y en expansión con proveedores de servicios de nube de hiperescala), desarrolladores y comunidades de código abierto para la nube híbrida y la innovación de IA.
  • Sus ofertas Terraform y Vault, junto con la cartera de productos más amplia de HashiCorp, ya están disponibles en la cartera de software de automatización de IBM.
  • HashiCorp impulsará sinergias significativas para IBM, incluso a través de múltiples áreas estratégicas de crecimiento como Red Hat, watsonx, seguridad de datos, automatización de TI y Consultoría. Por ejemplo, Terraform y Red Hat Ansible Automation Platform proporcionan una poderosa combinación, con Terraform automatizando la creación de infraestructura fundacional a través de múltiples proveedores de nube, y Ansible automatizando las configuraciones de aplicaciones y despliegues de middleware en la parte superior de esa infraestructura.
  • Además, HashiCorp Vault combinado con Red Hat OpenShift proporciona una sólida gestión de secretos y capacidades de seguridad a través de entornos de nube híbrida, y Terraform puede permitir la construcción y el despliegue de aplicaciones en entornos de nube híbrida.

Amplía la cartera de IBM de capacidades de automatización de TI basadas en IA

La adquisición de HashiCorp continúa las amplias inversiones de IBM en software de automatización para ayudar a las organizaciones a optimizar su gasto en TI y reducir costes. Esto incluye software impulsado por IA para la gestión de aplicaciones a través de las carteras de los clientes para identificar, predecir y sugerir soluciones para los problemas; software para la observabilidad completa de la pila de TI y para optimizar el rendimiento de las aplicaciones al menor coste; herramientas de gestión de recursos de aplicaciones que escalan eficientemente las operaciones y reducen el gasto en la nube; soluciones de gestión financiera que impulsan el conocimiento en tiempo real de las decisiones de gasto de TI en toda la empresa; y software para integrar miles de aplicaciones y datos a través de entornos de nube híbrida.

El cierre de la adquisición de HashiCorp por parte de IBM incluye todas las acciones ordinarias emitidas y en circulación de HashiCorp por US$ 35 por acción en efectivo, lo que representa un valor empresarial de US$ 6.400 millones.

AMD presenta la arquitectura AMD RDNA 4 con el lanzamiento de las tarjetas gráficas AMD Radeon RX Serie 9000

AMD Radeon RX Serie 9000.

AMD presentó la arquitectura gráfica AMD RDNA 4 con el lanzamiento de las tarjetas gráficas AMD Radeon RX 9070 XT y RX 9070 como parte de la Serie Radeon RX 9000. Las nuevas tarjetas gráficas cuentan con 16 GB de memoria y mejoras sustanciales diseñadas para ofrecer gráficos de calidad superior en videojuegos, incluyendo aceleradores de ray tracing renovados y potentes aceleradores de IA para un rendimiento ultrarrápido, de vanguardia, y experiencias de juego innovadoras.

Durante una premiere en YouTube, David McAfee, Vicepresidente Corporativo y Gerente General de CPU Ryzen y Gráficos Radeon en AMD, estuvo acompañado por Andrej Zdravkovic, Vicepresidente Senior de Tecnologías e Ingeniería de GPU y Director de Software, así como por Andy Pomianowski, Vicepresidente Corporativo de Ingeniería de diseño de Silicio.CVP de Silicon Design Engineering, para hablar sobre el rendimiento y la propuesta de valor de la Serie 9000. A su vez, en un evento relacionado en Zhuhai, China, Jack Huynh, Vicepresidente Senior del grupo de Clientes y Gráficos de AMD, encabezó un evento regional para los nuevos productos. Huynh estuvo acompañado por David Wang, Vicepresidente Senior de Tecnología e Ingeniería de GPU, y Lanzhi Wang, Directora Senior de Gestión de Productos. 

«Hoy estamos encantados de presentar la Serie AMD Radeon RX 9000. Este es un importante paso adelante en el rendimiento gráfico impulsado por nuestra arquitectura AMD RDNA 4 de próxima generación», dijo McAfee. Además, comentó que estas GPU están diseñadas para satisfacer las demandas de los juegos de hoy en día, brindando experiencias superlativas a los jugadores de todo el mundo, mientras están listas para respaldar las innovaciones del mañana.

«A través del poder de la IA avanzada y los aceleradores de trazado de rayos, no solo estamos mejorando la velocidad de fotogramas, sino que también estamos mejorando fundamentalmente la experiencia de juego. Ofreciendo un rendimiento increíble, funciones impulsadas por IA y soporte de pantalla de próxima generación a precios competitivos, la Serie Radeon RX 9000 ofrece un valor excepcional para los jugadores que buscan actualizar sus sistemas», explicó el ejecutivo de AMD.

La Serie RX 9000 ofrece a los jugadores y creadores una poderosa combinación de rendimiento, gráficos y valor. Estas tarjetas gráficas redefinen los videojuegos de alta resolución y velocidad con la tecnología de ray tracing de tercera generación, permitiendo luces, sombras y reflejos realistas para una experiencia inmersiva de juego, al mismo tiempo que integran un conjunto de características de AMD para maximizar la utilización del hardware.

Más allá de los videojuegos, las GPUs RX 9000 aprovechan los nuevos aceleradores de IA de segunda generación con hasta 8 veces el rendimiento de INT8 por acelerador de Inteligencia Artificial para mejorar aplicaciones creativas y ejecutar eficazmente aplicaciones de IA generativa. Las GPU de la Serie RX 9000 también implementan el nuevo rediseño AMD Radiance Display Engine y Enhanced Media Engine para una amplia compatibilidad con pantallas y una calidad elevada tanto en la grabación como en la transmisión. 

Gaming para hoy y mañana

La Serie Radeon RX 9070 ofrece 16 GB de memoria GDDR6, permitiendo a los jugadores renderizar los videojuegos más emocionantes de hoy y mañana con configuraciones máximas. En comparación con la generación anterior RX 7900 GRE, la nueva AMD Radeon RX 9070 es capaz de ofrecer más del 20% de rendimiento adicional en promedio al jugar a 1440, con la AMD Radeon RX 9070 XT extendiendo esa ventaja a más del 40% en promedio.

Ambas tarjetas gráficas hacen mejoras inteligentes para los jugadores que buscan garantizar la longevidad de sus sistemas con un conjunto de características de próxima generación que mantendrán sus experiencias frescas durante años. 

Características destacadas

  • Unidades de cómputo unificadas AMD RDNA 4: con hasta 64 unidades de cómputo avanzadas, ofrece hasta un 40% más de rendimiento en videojuegos que la arquitectura AMD RDNA 3 de la generación anterior.
  • Raytracing de alto rendimiento: con aceleradores de Raytracing de tercera generación, esta nueva arquitectura puede ofrecer más del doble del rendimiento de raytracing por unidad de cómputo en comparación con la generación anterior.
  • Aceleración IA potenciada: los aceleradores de Inteligencia Artificial de segunda generación han recibido una serie de mejoras, lo que permite procesar modelos avanzados de IA mucho más rápido que con RDNA 3, a través de una combinación de canales matemáticos adicionales para cálculos de esta tecnología, ampliando así las capacidades del acelerador de IA para admitir nuevos tipos de datos emergentes como FP8, y optimizaciones de inferencia como la escasez estructurada. 
  • Tecnología AMD FidelityFX Super Resolution 4 (FSR 4): la nueva tecnología de escalado impulsada por ML de AMD ofrece fotogramas mejorados de alta calidad bajo las cargas de trabajo más exigentes como juegos en 4K con configuraciones máximas de raytracing y será compatible con más de 30 juegos en su lanzamiento.
  • Suite innovadora de características a través de HYPR-RX: los jugadores pueden mejorar instantáneamente su experiencia activando AMD HYPR-RX y la suite de características dentro de AMD Software, incluyendo AMD Radeon Super Resolution, AMD Fluid Motion Frames 2.1, AMD Radeon Anti-Lag, y AMD Radeon Boost. Estas características se pueden personalizar según el hardware y las preferencias del jugador.
  • Software AMD mejorado con IA: se presenta Aplicación Adrenalin Edition, una nueva suite de software y recursos diseñada para ofrecer una experiencia de usuario líder en la industria con las tarjetas gráficas AMD Radeon Serie RX 9070. Gracias a este desarrollo, los usuarios pueden mantener sus controladores y software de IA actualizados. Además, pueden encontrar respuestas a sus preguntas con AMD Chat.
  • Listo para pantallas de próxima generación: el motor AMD Radiance Display soporta las últimas conexiones DisplayPort 2.1a y HDMI 2.1b, permitiendo resoluciones ultraaltas y tasas de refresco de hasta 8K 144Hz, con HDR de 12 bits y espacio de color completo REC2020 para una precisión de color increíble. Junto con la tecnología AMD FreeSync, los jugadores pueden disfrutar de experiencias de juego sin desgarros ni saltos en más de 4000 pantallas compatibles, incluidas las futuras pantallas DisplayPort 2.1 de 4K 240Hz y 8K 144Hz.

Actualización de AMD FidelityFX Super Resolution 4 impulsada por ML 

Exclusivo para las tarjetas gráficas AMD Radeon Serie RX 9000, el software AMD: Adrenalin Edition añade una nueva función fácil de usar, la actualización AMD FidelityFX Super Resolution 4 (AMD FSR 4), que ayuda a maximizar el rendimiento con la máxima calidad en más de 30 juegos al momento de su lanzamiento, con 75 juegos adicionales disponibles más adelante este año. AMD FSR 4 ofrece una mejora sustancial en la calidad de imagen frente a la escalabilidad AMD FSR 3.1, con el nuevo algoritmo basado en ML que mejora la estabilidad temporal, preserva mejor los detalles y reduce el efecto de ghosting.

El nuevo algoritmo de escalado AMD FSR 4 acelerado por ML se entrena con datos de juego reales de alta calidad en los aceleradores AMD Instinct y utiliza la función FP8 Wave Matrix Multiply Accumulate (WMMA) acelerada por hardware de la arquitectura AMD RDNA 4 para garantizar la máxima calidad de escalado y, al mismo tiempo, proporcionar un aumento sustancial del rendimiento del juego.

Se espera que las tarjetas gráficas AMD Radeon RX Serie 9000 estén disponibles a través de los principales socios de placas, incluidos Acer, ASRock, ASUS, Gigabyte, PowerColor, Sapphire, Vastarmor, XFX y Yeston a partir del 6 de marzo de 2025.

Motorola Solutions suma a su amplio ecosistema de soluciones el nuevo radio X10d

Manuel Moreno, Gerente de Estrategia de Portafolio de PCR y PTT de Banda Ancha para América Latina y el Caribe de Motorola Solutions.

Motorola Solutions lanzó su radio X10d para entornos exigentes, que incluye batería de larga duración y un rango de cobertura optimizado. Su compatibilidad con la tecnología DMR (Radio Digital Móvil) garantiza una experiencia de comunicación moderna, eficiente y completamente integrada. Cuando la conectividad y el desempeño importan, este dispositivo se convierte en el aliado perfecto para mantener a su equipo siempre en sintonía.

Nuevo radio X10d.

“El nuevo radio X10d de Motorola Solutions se encuentra ya disponible en América Latina a través de toda la red de socios de negocios y distribuidores autorizados de Motorola Solutions”, explicó Manuel Moreno, Gerente de Estrategia de Portafolio de PCR y PTT de Banda Ancha para América Latina y el Caribe de Motorola Solutions.

Consultado sobre los escenarios de aplicación de este nuevo dispositivo, Moreno dijo: “Industrias como el comercio minorista, logística de eventos, centros de educación, personal de salud, restaurantes, seguridad privada, entre otros, son ideales para aprovechar las ventajas del X10d por su confiabilidad, potencia del parlante y sistema de cancelación de ruido”

Este nuevo radio portátil “tiene la simplicidad del Push-to-Talk (PTT), la interoperabilidad que ofrecen los radios bajo el estándar internacional DMR y la versatilidad de operar en modo tanto analógico como digital, para una efectiva comunicación y mayor colaboración entre las personas y los negocios. Además, entrega 23 horas de conversación con carga rápida de batería, clasificación de protección de producto IP55 contra polvo y agua, y un complemento de funciones avanzadas de protección adicional para el personal en campo: botón de emergencia, modo trabajador en solitario y monitoreo remoto”, agregó el Gerente de Estrategia. 

Al soportar la tecnología DMR, es integrable con los radios MOTOTRBO de Motorola Solutions, en sistema de comunicación radio a radio, o en sistemas de un sitio de repetición.

—¿Qué canales pueden comercializarlo? ¿Requieren alguna certificación?
—Dada la versatilidad del radio X10d, no requiere que los socios de negocios de Motorola Solutions tengan una certificación o preparación especial; todos ellos ya reúnen lo requerido dada su amplia experiencia con la marca Motorola.

En relación con su comercialización, Moreno definió: “La excelente relación precio/valor que ofrece la radio X10d al cliente representa un diferencial importante. Adicionalmente, está el respaldo de una marca líder en el mercado un servicio de garantía que puede llegar, opcionalmente, hasta dos años en una radio de segmento bajo lo hace una solución muy especial”

Vertiv anuncia el lanzamiento del portafolio de Servicios de enfriamiento líquido para aplicaciones informáticas de alta densidad

Vertiv, Data Center.

Vertiv anunció el lanzamiento de los Servicios de Enfriamiento Líquido. Esta oferta se encuentra disponible en todo el mundo y les brinda a los clientes las herramientas necesarias para incrementar la disponibilidad del sistema, mejorar la eficiencia y enfrentar los desafíos de los avanzados sistemas de enfriamiento líquido con confianza.

La compañía ha estado ofreciendo estos servicios por más de un año a usuarios pioneros en la región con el fin de perfeccionar las buenas prácticas y adquirir valiosos conocimientos, los cuales han contribuido a ampliar nuestras capacidades de servicios de enfriamiento líquido a escala global. Además, esta experiencia aporta un enfoque maduro y comprobado, para ofrecerles a los operadores de centros de datos de todo el mundo un soporte especializado y basado en la aplicación.

Las cargas de trabajo de IA siguen dando forma al panorama de los data centers, lo cual ha llevado a un aumento significativo en las densidades de los racks, con 30 kW como el nuevo estándar actual y algunos que alcanzan o superan los 120 kW, los operadores se enfrentan a cargas térmicas más elevadas y mayores densidades de potencia, por lo que existe una alta demanda de soluciones de enfriamiento líquido para mantener la continuidad operativa.

“La creciente dependencia de servidores de IA enfriados por líquido exige un enfoque integral para la gestión durante el ciclo de vida”, indicó Sean Graham, Director de Investigación de Nube y Centros de Datos en IDC. Además, comentó que debido a las complejidades de estos ecosistemas de enfriamiento, es recomendable tener no solo un programa de soporte sólido, sino también una buena práctica para garantizar la disponibilidad del sistema y la viabilidad operativa a largo plazo.

La oferta de Vertiv se enfoca en facilitar una integración perfecta de los sistemas de enfriamiento líquido con el equipo de TI y la infraestructura adyacente. Esta incluye la instalación y puesta en marcha por parte de expertos, el mantenimiento constante con atención especial en la gestión de fluidos, la limpieza y prevención para que ingrese aire al sistema.

Soporte en cada etapa

Los técnicos e ingenieros de campo brindan soporte especializado en cada instancia, para así confirmar que los sistemas de eliminación del calor y de fluido de circuitos de enfriamiento funcionen de manera óptima:

  • Servicios de arranque y puesta en marcha: identifican y hacen frente de manera proactiva a posibles problemas ocasionados por una instalación incorrecta, para evitar demoras y permitir un arranque sencillo y eficiente del sistema mientras verifican la calidad de todos los equipos conectados.
  • Disponibilidad de repuestos: acceso rápido a piezas de repuesto, para reparaciones más rápidas cuando sea necesario y reducir los posibles periodos de inactividad.
  • Soporte a lo largo del ciclo de vida: el mantenimiento proactivo y digital de los sistemas es uno de los aspectos fundamentales de esta oferta, para la confiabilidad a largo plazo y un rendimiento optimizado del enfriamiento. La documentación de todos los procesos que respaldan la red de fluidos secundaria ofrece un historial del estado del equipo para un soporte continuo e informado.
  • Servicios integrales de gestión de fluidos: mantener una calidad óptima del refrigerante es esencial para un rendimiento confiable de los sistemas. Los servicios de Vertiv incluyen muestras de refrigerante, pruebas de laboratorio, la prevención de la contaminación y la eliminación ambientalmente responsable para maximizar la vida útil y la eficiencia de los sistemas, así como para mejorar la resiliencia del sistema de enfriamiento de tecnología y la red de fluidos secundaria.
  • Soporte preventivo y de emergencia: los equipos de respuesta a emergencias brindan soporte rápidamente, tanto en el sitio como de manera remota, para diagnosticar y resolver los problemas, minimizando así los periodos de inactividad y permitiendo retomar las operaciones rápidamente.

“La computación de alto rendimiento (HPC) y la IA son críticas para la innovación empresarial y la ventaja sobre la competencia; esto hace que la confiabilidad y la eficiencia a la hora de dar soporte a la infraestructura digital crítica sean más importantes que nunca», afirmó Ryan Jarvis, Vicepresidente del negocio de servicios globales en Vertiv. Además, comentó que a medida que las organizaciones sigan invirtiendo en sistemas impulsados por IA, necesitarán soluciones sólidas de enfriamiento líquido para proteger sus inversiones y facilitar el rendimiento a largo plazo.

Con el respaldo de más de 240 centros de servicio, más de 3500 ingenieros de campo y más de 190 especialistas en respuesta técnica, Vertiv brinda soporte especializado en múltiples regiones.

Check Point Software amplía sus servicios de gestión de partners y clientes para prevenir ciberataques

Check Point Software

Check Point® Software Technologies Ltd. ha anunciado la expansión de sus Servicios Partner y Customer Advocacy Management en el CPX 2025 Las Vegas, proporcionando acceso directo a expertos en defensa de seguridad. Estos servicios mejoran la estabilidad, optimizan la interacción y fomentan una colaboración proactiva. Así, las empresas obtienen un único punto de contacto para fortalecer sus operaciones de seguridad, acelerar la interacción con ejecutivos y optimizar sus estrategias de ciberseguridad.

Según el Security Report 2025 de Check Point Software, los ciberataques han aumentado un 44% interanual, lo que destaca la urgente necesidad de un enfoque proactivo en ciberseguridad. A medida que los entornos de seguridad se vuelven más complejos, las compañías deben optimizar sus inversiones en seguridad, fomentar la colaboración y mejorar la eficiencia operativa para adelantarse a las amenazas emergentes.

Los servicios de Partner y Customer Advocacy de Check Point Software están diseñados para alinear estrategias de seguridad, mejorar la eficiencia operativa y ofrecer orientación experta adaptada a las necesidades de cada empresa. Al proporcionar acceso directo a expertos en ciberseguridad, estas soluciones permiten a socios y clientes reforzar sus defensas, maximizar el retorno de la inversión y gestionar con confianza un panorama de amenazas en constante evolución.

El Advocacy Manager de Check Point Software ofrece un soporte estructurado que va más allá del servicio postventa tradicional, ofreciendo asesoramiento estratégico tanto a partners como a clientes. Mientras los socios adquieren los conocimientos necesarios para enfrentar retos de seguridad con mayor eficacia, los clientes se benefician de un soporte especializado para optimizar su protección digital.

“Este servicio responde a la creciente demanda de un compromiso práctico y dedicado para abordar los desafíos complejos de la ciberseguridad”, ha afirmado Sharon Schusheim, directora de servicios en Check Point Software. “A través de nuestro servicio de Advocacy, actuamos como verdaderos asesores de confianza, trabajando proactivamente con socios y clientes para fortalecer la seguridad, impulsar la eficiencia operativa y prevenir problemas antes de que ocurran. Al proporcionar acceso directo a expertos en defensa, permitimos que las organizaciones se adelanten a las amenazas y logren un éxito empresarial a largo plazo”.

El servicio de Advocacy Management de Check Point Software ofrece un modelo de compromiso proactivo que ayuda a socios y clientes a reforzar la ciberseguridad y garantizar la estabilidad operativa. Actuando como asesores de confianza, el equipo de seguridad previene los problemas antes de que afecten a las operaciones de seguridad.

El servicio incluye dos modelos de compromiso flexibles:

  • Partner Advocacy Management: proporciona a los partners y MSSPs acceso directo a un enfoque que mejora la prestación de servicios, la coordinación sin fisuras con expertos senior y alinea las estrategias de seguridad, fortaleciendo las relaciones con los clientes y el éxito empresarial.
  • Customer Advocacy Management: proporciona a los clientes un Customer Advocacy Manager dedicado que ofrece orientación estratégica, resolución rápida de problemas y optimización de la seguridad adaptada a sus necesidades.

“Estamos satisfechos con los resultados que hemos obtenido trabajando con el equipo de atención al cliente de Check Point Software. Su apoyo ha jugado un papel crucial en permitir a nuestro equipo de servicios de ciberseguridad ofrecer un éxito efectivo al cliente, especialmente en el manejo de algunas de nuestras cuentas más complejas. El proceso de escalado ha sido particularmente útil, proporcionándonos un canal de escalado dedicado y un soporte proactivo. Esta asociación ha marcado una verdadera diferencia en nuestras capacidades, fortaleciendo nuestras capacidades para garantizar una mejor protección a nuestros clientes”, ha añadido Paul Starr, cofundador y CEO de SEP2.

“Colaborar con el equipo de defensa de Check Point Software ha elevado verdaderamente nuestro enfoque de la gestión de la ciberseguridad. Su orientación proactiva y su compromiso con la mejora continua nos han permitido hacer frente a los desafíos técnicos de manera más eficiente al tiempo que descubrimos nuevas oportunidades de crecimiento. Apreciamos su apoyo práctico y sus ideas estratégicas, que han fortalecido nuestras relaciones con los clientes y han impulsado un mayor éxito general en nuestras iniciativas de seguridad”, ha concluido Andreas Zentsch, CEO de Think-1st Ltd & Co.

Los servicios de apoyo de Check Point Software complementan los de soporte técnico ofreciendo un enfoque proactivo y estratégico que va más allá de las soluciones tradicionales. Estos servicios facilitan un compromiso más profundo entre los equipos de I+D, producto, soporte y servicios profesionales, garantizando una experiencia más colaborativa y personalizada para partners y clientes.

Los envíos de PCs compatibles con IA representaron el 23% de las entregas durante el último trimestre de 2024

PC con IA.

Los últimos datos de Canalys, ahora parte de Omdia, revelan que los envíos de PC compatibles con AI alcanzaron los 15,4 millones de unidades en el cuarto trimestre de 2024, lo que representa el 23% de todos los envíos de PC durante el trimestre. Los PC compatibles con IA se definen como equipos de sobremesa y portátiles que incluyen un chipset o bloque para cargas de trabajo de IA dedicadas, como una NPU.

El aumento de la disponibilidad de este tipo de dispositivos ha dado lugar a un crecimiento secuencial del 18% para esta categoría de PC. Para el año completo 2024, el 17% de las PC enviadas eran compatibles con IA, siendo Apple la compañía con mayor participación (54%), seguido por Lenovo y HP con un 12% de participación cada uno. El ciclo de actualización inducido por el fin del soporte de Windows 10 seguirá impulsando el recambio de computadoras durante 2025.

«Las implementaciones comerciales de PC compatibles con IA continuaron su impulso a finales de 2024 cuando los proveedores introdujeron programas y productos enfocados en el negocio», comentó Kieren Jessop, Analista de Canalys.

De acuerdo con una encuesta realizada en enero entre los socios del canal, un tercio citó al fin de Windows 10 como el principal impulsor de las decisiones de actualización de sus clientes en 2025. «Muchos de estos socios esperan que la mayor parte de la renovación de sus clientes se produzca en el segundo semestre de 2025», añadió Jessop.

El total de envíos de PC compatibles con Windows AI creció un 26% en forma secuencial, lo que representa el 15% de todos los PC con Windows enviados en el cuarto trimestre. «En CES 2025, los fabricantes de PC ampliaron su enfoque en el software impulsado por Inteligencia Artificial, integrando asistentes y aplicaciones propias a través de más líneas de productos», dijo.

«Las ofertas como Lenovo AI Now, Dell Pro AI Studio, HP AI Companion y Asus StoryCube fueron más destacadas, lo que señala un cambio hacia la diferenciación a través de mejoras en el software y la experiencia del usuario. Aunque las capacidades de la IA no son un motor principal de compra, el rendimiento mejorado del procesador impulsado por esta tecnología hará que las experiencias personalizadas y los aumentos de productividad sean cada vez más importantes y esperados», comentó el ejecutivo de Canalys, quien a modo de conclusión sostuvo que con el paso del tiempo, esta situación podría influir en la lealtad a la marca, dando forma a las decisiones de los clientes para futuras actualizaciones de dispositivos.

Puertas abiertas a la inteligencia artificial

Gilson Magalhães

La inteligencia artificial ha pasado de una mera posibilidad a una realidad innegable en poco tiempo. Hoy es visto como un camino obligatorio para las empresas, lo que justifica el salto en su implementación. En los últimos seis años, el uso de la IA, especialmente la IA generativa, en las organizaciones ha pasado de un promedio del 50% al 72%, según datos de McKinsey.

Aunque positivo, este crecimiento acelerado también refleja un escenario desafiante. Muchas empresas están experimentando lo que podríamos llamar FOMOAI (fear of missing out AI, o miedo a quedarse fuera de esta tendencia), lo que provoca que muchos de ellos empiecen a adoptar la inteligencia artificial sin estar realmente preparados o sin tener un plan estratégico para ello. Hoy en día, según una investigación de Boston Consulting Group  (BCG), solo el 26% de las organizaciones ha desarrollado el conjunto necesario de capacidades para ir más allá de las pruebas de concepto y generar valor tangible con IA.

Rompiendo barreras

Entre las principales barreras para extraer todo el potencial de la IA y generar valor a partir de ella se encuentran algunas preocupaciones sobre los límites de esta tecnología. Un estudio de Deloitte mostró que muchas empresas creen que pueden surgir nuevos problemas debido a la expansión de los proyectos piloto de IA, regulaciones poco claras sobre datos sensibles y dudas sobre el uso de datos externos (por ejemplo, datos de terceros bajo licencia).

El escenario está lleno de incertidumbres, sin embargo, es terreno fértil para el surgimiento de oportunidades. Los movimientos recientes de la industria apuntan al código abierto como fuente y destino de nuevos modelos de inteligencia artificial, a medida que modelos básicos más abiertos cierran la brecha con las plataformas propietarias de IA.

La conexión entre la IA y el código abierto parece seguir el camino de otras innovaciones importantes en la industria de TI que solo fueron posibles gracias a esta poderosa combinación. Desde el desarrollo y consolidación de Linux como el sistema operativo más ubicuo del mundo, experimentando el surgimiento y crecimiento de Kubernetes y desde los contenedores, hasta el desarrollo y expansión de la propia Internet, el código abierto jugó un papel fundamental para romper barreras, optimizar recursos, brindar seguridad y, sobre todo, transparencia. Según un artículo de la Escuela de Negocios de Harvard, sin el software de código abierto y sus redes de creación de código, las empresas pagarían alrededor de 3,5 veces más para crear el software y las plataformas que gestionan sus negocios, algo equivalente a 8,8 billones de dólares.

Respaldado por valores clave como la colaboración, la transparencia y el intercambio constante de ideas, el código abierto ya no es solo un método para el desarrollo de software. Con el paso de los años, ha abarcado una forma más general de trabajar, abierta, descentralizada y profundamente colaborativa. La unión de metodología y filosofía de código abierto revolucionó el mercado y permitió a las empresas extraer todo el potencial de tecnologías como la computación en la nube y la automatización. Esto ha dado lugar a ofertas de servicios y productos cada vez más completos, que ahora buscan repetir con la IA.

IA: inteligente y abierta

Encuesta realizada por McKinsey demostró que más del 50% de las organizaciones encuestadas dicen que utilizan open source en diferentes áreas de la tecnología de IA. Las empresas que ven la IA como un aliado importante para obtener una ventaja competitiva son las que tienen más probabilidades de utilizar modelos y herramientas de IA de código abierto.

Lo que atrae a las empresas a invertir en estas soluciones son los posibles ahorros de costos y una comprensión más profunda de los modelos de inteligencia artificial. Debido a que los proyectos de código abierto se construyen de manera colaborativa, es más fácil identificar y abordar posibles problemas de seguridad y sesgos en los modelos de IA a medida que se desarrollan.

Actualmente, los datos y métodos utilizados para entrenar y ajustar los modelos propietarios de IA se mantienen estrechamente vigilados, lo que hace mucho más difícil identificar si albergan datos potencialmente peligrosos o sesgos inherentes. Si un modelo y los datos utilizados para entrenarlo son abiertos, cualquiera puede examinarlo, lo que reduce el riesgo. Además, el código abierto permite crear herramientas y procesos para rastrear y auditar el desarrollo futuro de modelos y aplicaciones, ayudando a mejorar y mantener su seguridad a lo largo del tiempo. Esta apertura y transparencia también genera confianza, ya que los usuarios pueden preguntar directamente cómo se utilizan y procesan sus datos.

Con la tecnología de código abierto también es posible invertir en modelos más pequeños, los llamados Small Language Models (SLMs, por su sigla en inglés), mucho más especializados, transparentes, seguros y rentables. Los SLM son significativamente más rápidos y eficientes de entrenar e implementar, y pueden personalizarse y adaptarse según sea necesario. Esto le brinda la flexibilidad de implementar su modelo de IA y cualquier aplicación creada en él donde y como quiera.

Los Large Language Models (LLM), que dominan el mercado hoy en día, son exorbitantemente costosos de construir, capacitar, mantener e implementar, y requieren enormes cantidades de almacenamiento. Los modelos y aplicaciones de IA abiertos, no sólo requieren una fracción de la potencia informática de los LLM, sino que permiten a personas sin habilidades ni experiencia especializadas contribuir de forma activa y eficaz a la formación y el ajuste de los modelos de IA.

Construcción colaborativa

Red Hat, líder en software empresarial de código abierto, ha estado a la vanguardia de una inteligencia artificial cada vez más abierta y colaborativa, anclada en la filosofía open source, para democratizar el acceso a la IA. En Red Hat, creemos que todos deberían tener la capacidad de contribuir a la inteligencia artificial, y aplicamos nuestras décadas de experiencia en código abierto para desarrollar herramientas y marcos que permitirán precisamente eso: que todos se beneficien de la IA y al mismo tiempo ayuden a dar forma a su futuro y evolución.

Los principios y prácticas de código abierto aceleran la innovación y permiten un ecosistema vibrante al fomentar asociaciones y oportunidades de colaboración entre proyectos e industrias. En tecnología, el lema de que “nadie innova solo” nunca ha sido tan valioso y preciso: la innovación colaborativa y de código abierto es esencial para el futuro de la IA, para que siga siendo accesible y beneficiosa para todos.

Por qué el almacenamiento es el héroe anónimo de la IA

Douglas Wallace, Gerente de Ventas Distrital, América Latina y el Caribe en Pure Storage.

En la carrera hacia la inteligencia artificial general (AGI), la tecnología de almacenamiento está marcando el ritmo. Mientras que los algoritmos y la computación toman protagonismo, el almacenamiento impulsa los avances de la IA. Durante la revolución flash, los discos de 15K se estancaron a medida que el rendimiento computacional se duplicaba cada dos años, pero flash permitió la virtualización y, hoy, las cargas de trabajo impulsadas por GPU están impulsando una mayor innovación en el almacenamiento junto con las demandas de eficiencia, sostenibilidad y confiabilidad.

Los primeros esfuerzos de IA se vieron limitados por la complejidad algorítmica y la escasez de datos, pero a medida que los algoritmos avanzaron, surgieron cuellos de botella en la memoria y el almacenamiento. El almacenamiento de alto rendimiento desbloqueó avances como ImageNet, que impulsó los modelos de visión, y GPT-3, que requirió petabytes de almacenamiento.

Con 400 millones de terabytes de datos generados diariamente, el almacenamiento debe administrar cargas de trabajo a escala de exabytes con latencia de submilisegundos para impulsar la AGI y el aprendizaje automático cuántico. A medida que avanzaba la IA, cada ola de innovación impuso nuevas demandas al almacenamiento, impulsando avances en capacidad, velocidad y escalabilidad para acomodar modelos cada vez más complejos y conjuntos de datos más grandes.

  • Aprendizaje automático clásico (década de 1980-2015): los modelos de reconocimiento de voz y aprendizaje supervisado impulsaron el crecimiento de los conjuntos de datos de megabytes a gigabytes, lo que hizo que la recuperación y la organización de datos fueran cada vez más críticas.
  • Revolución del aprendizaje profundo (2012-2017): modelos como AlexNet y ResNet impulsaron las demandas de almacenamiento, mientras que Word2Vec y GloVe avanzaron en el procesamiento del lenguaje natural, cambiando al almacenamiento NVMe de alta velocidad para conjuntos de datos a escala de terabytes.
  • Modelos básicos (2018-presente): BERT introdujo conjuntos de datos a escala de petabytes, y GPT-3 y Llama 3 requirieron sistemas escalables y de baja latencia como Tectonic de Meta para manejar billones de tokens y mantener un rendimiento de 7 TB/s.
  • Leyes de escala de Chinchilla (2022): Chinchilla enfatizó el crecimiento de los conjuntos de datos sobre el tamaño del modelo LLM, lo que requirió almacenamiento de acceso paralelo para optimizar el rendimiento.

El almacenamiento no solo respalda la IA, sino que también marca el camino y da forma al futuro de la innovación mediante la gestión eficiente y a gran escala de los datos cada vez mayores del mundo. Por ejemplo, las aplicaciones de IA en la conducción autónoma dependen de plataformas de almacenamiento capaces de procesar petabytes de datos de sensores en tiempo real, mientras que la investigación genómica requiere un acceso rápido a conjuntos de datos masivos para acelerar los descubrimientos. A medida que la IA continúa ampliando los límites de la gestión de datos, los sistemas de almacenamiento tradicionales enfrentan desafíos cada vez mayores para seguir el ritmo de estas demandas en constante evolución, lo que resalta la necesidad de soluciones diseñadas específicamente para ese fin.

¿Cómo las cargas de trabajo de IA afectan a los sistemas de almacenamiento tradicionales?

Consolidación de datos y gestión de volúmenes

Las aplicaciones de IA gestionan conjuntos de datos que van desde terabytes hasta cientos de petabytes, lo que supera con creces las capacidades de los sistemas de almacenamiento tradicionales, como NAS, SAN y el almacenamiento de conexión directa heredado. Estos sistemas, diseñados para cargas de trabajo transaccionales precisas, como la generación de informes o la recuperación de registros específicos, tienen dificultades con las demandas de agregación intensa de la ciencia de datos y los patrones de acceso de alta velocidad y de gran alcance de las cargas de trabajo de IA/ML.

El entrenamiento de modelos, que requiere la recuperación masiva de datos por lotes en conjuntos de datos completos, pone de relieve esta falta de alineación. Las arquitecturas rígidas de la infraestructura tradicional, las limitaciones de capacidad y el rendimiento insuficiente la hacen inadecuada para la escala y la velocidad de la IA, lo que subraya la necesidad de plataformas de almacenamiento diseñadas específicamente para este fin.

Cuellos de botella en el rendimiento para el acceso a datos de alta velocidad

El análisis y la toma de decisiones en tiempo real son esenciales para las cargas de trabajo de IA, pero las arquitecturas de almacenamiento tradicionales suelen crear cuellos de botella con IOPS insuficientes, ya que se crearon para tareas transaccionales moderadas en lugar de las demandas intensivas de lectura/escritura paralelas de la IA. Además, la alta latencia de los discos giratorios o los mecanismos de almacenamiento en caché obsoletos retrasan el acceso a los datos, lo que aumenta el tiempo de obtención de información y reduce la eficiencia de los procesos de IA.

Manejo de diversos tipos de datos y cargas de trabajo

Los sistemas de IA manejan datos estructurados y no estructurados (incluidos texto, imágenes, audio y video), pero las soluciones de almacenamiento tradicionales tienen dificultades con esta diversidad. A menudo están optimizadas para datos estructurados, lo que da como resultado una recuperación lenta y un procesamiento ineficiente de formatos no estructurados.

Además, la indexación y la gestión de metadatos deficientes dificultan la organización y la búsqueda eficaz de diversos conjuntos de datos. Los sistemas tradicionales también enfrentan problemas de rendimiento con archivos pequeños, algo común en los modelos de lenguaje de entrenamiento, ya que la alta sobrecarga de metadatos genera demoras y tiempos de procesamiento más prolongados.

Limitaciones de la arquitectura heredada

El efecto acumulativo de estos desafíos es que las arquitecturas de almacenamiento tradicionales no pueden seguir el ritmo de las demandas de las cargas de trabajo de IA modernas. Carecen de la agilidad, el rendimiento y la escalabilidad necesarios para respaldar los diversos y grandes volúmenes de datos que requiere la IA.

Estas limitaciones resaltan la necesidad de soluciones de almacenamiento avanzadas que estén diseñadas para manejar los desafíos únicos de las aplicaciones de IA, como la escalabilidad rápida, el alto rendimiento, la baja latencia y el manejo diverso de datos.

Principales desafíos de almacenamiento en IA

Las cargas de trabajo de IA imponen demandas únicas en los sistemas de almacenamiento, y abordar estos desafíos requiere capacidades avanzadas en las siguientes áreas:

  • Consolidación unificada de datos: los silos de datos fragmentan información valiosa, lo que requiere consolidación en una plataforma unificada que admita diversas cargas de trabajo de IA para un procesamiento y entrenamiento sin inconvenientes.
  • Rendimiento y capacidad escalables: una plataforma de almacenamiento sólida debe administrar diversos perfiles de E/S y escalar de terabytes a exabytes, lo que garantiza un acceso de baja latencia y alto rendimiento. Al permitir un escalamiento sin interrupciones, la plataforma permite que las cargas de trabajo de IA se expandan sin inconvenientes a medida que aumentan las demandas de datos, manteniendo operaciones fluidas e ininterrumpidas.
  • Flexibilidad de escalamiento vertical y horizontal: manejar el acceso transaccional de baja latencia para bases de datos vectoriales y cargas de trabajo de alta concurrencia para entrenamiento e inferencia requiere una plataforma que brinde ambas capacidades.
  • Fiabilidad y tiempo de actividad continuo: a medida que la IA se vuelve fundamental para las empresas, el tiempo de actividad del 99,9999 % es esencial. Una plataforma de almacenamiento debe soportar actualizaciones y renovaciones de hardware sin interrupciones, lo que garantiza operaciones continuas sin tiempos de inactividad visibles para los usuarios finales.

Hacia dónde nos dirigimos…

El almacenamiento es la columna vertebral de la IA, y la creciente complejidad de los modelos y la intensidad de los datos generan demandas exponenciales en la infraestructura. Las arquitecturas de almacenamiento tradicionales no pueden satisfacer estas necesidades, por lo que es esencial adoptar soluciones de almacenamiento ágiles y de alto rendimiento.

La relación simbiótica entre la IA y las plataformas de almacenamiento significa que los avances en el almacenamiento no solo respaldan el progreso de la IA, sino que también lo aceleran. Para las empresas que recién comienzan a explorar la IA, la flexibilidad es crucial: necesitan un almacenamiento que pueda escalar a medida que crecen sus necesidades de datos y computación, que admita múltiples formatos (por ejemplo, archivos, objetos) y que se integre fácilmente con las herramientas existentes.

Las organizaciones que invierten en plataformas de almacenamiento modernas se posicionan a la vanguardia de la innovación. Esto requiere:

  • Evaluar la infraestructura: identificar las limitaciones actuales y las áreas que requieren una mejora inmediata.
  • Adoptar soluciones escalables: implementar plataformas que ofrezcan flexibilidad, alto rendimiento y crecimiento sin inconvenientes.
  • Planificar las necesidades futuras: mantenerse a la vanguardia de las tendencias emergentes para garantizar que la plataforma evolucione con los desarrollos de la IA.

Al priorizar las plataformas de almacenamiento como un componente central de la estrategia de IA, las organizaciones pueden descubrir nuevas oportunidades, impulsar la innovación continua y mantener una ventaja competitiva en el futuro impulsado por los datos.

Querida Magda, el futuro está lleno de oportunidades (y de tecnología)

Magdalena de Vertiv

Si pudiera escribirle a mi yo adolescente, le diría: El futuro está lleno de oportunidades y de tecnología.

Hoy, inspirada por el Día Internacional de la Mujer, quiero compartir mi historia, con la esperanza de que sirva de inspiración para jóvenes que, al igual que yo, están llenas de sueños y curiosidad, con ganas de explorar el mundo, pero también con dudas sobre cómo alcanzar sus metas.

Crecí inspirada por el espíritu aventurero de mis padres. Quería viajar, descubrir nuevas culturas y aprender de ellas. Aunque no siempre tuve claro qué quería estudiar ni cómo darle forma a mis aspiraciones, mi pasión por los negocios, la empatía por las personas y la valentía para tomar riesgos me llevaron por un camino único. En aquel entonces, no sabía lo lejos que podía llegar.

Decidí estudiar Comercio y Administración de Empresas. Ese fue el primer paso para comenzar a trabajar en las áreas de ventas, comercial, y marketing. Viví experiencias increíbles en Irlanda del Norte y Singapur, lugares donde experimenté de cerca la riqueza de la diversidad cultural y desarrollé habilidades que hoy son la base de mi carrera.

Al regresar a Chile, mi hogar, vi una oportunidad en la industria tecnológica y la aproveché. Esa decisión, tomada hace ya una década, me llevó hasta donde estoy hoy: ser Gerente Senior de Marketing para Vertiv Latinoamérica.

Un presente lleno de tecnología

Hoy, como líder de una industria tan emocionante como transformadora, la de los centros de datos, he crecido personal y profesionalmente. Desde aquí, tengo la posibilidad de impulsar la conectividad global, la innovación tecnológica y la transformación digital.

La tecnología ha cambiado mi forma de ver el mundo, pero mi esencia sigue siendo la misma: soy una mujer agradecida, llena de curiosidad y determinada a construir puentes entre culturas y personas. Sin embargo, no habría llegado hasta aquí sin la confianza de otras mujeres que creyeron en mí y me abrieron puertas.

Un mensaje para las nuevas generaciones

Por eso, recordando las palabras de Eleanor Roosevelt, en la primera carta abierta: “Las mujeres del mundo tienen que ayudarse mutuamente.” Les digo que he recibido el apoyo de muchas mujeres inspiradoras y mi compromiso es devolver ese apoyo a las nuevas generaciones.

A todas esas jóvenes que sueñan con un futuro lleno de posibilidades, quiero decirles que no tengan miedo de soñar en grande. Atrévanse a cometer errores, explorar y buscar aquello que las inspira. El camino puede ser desafiante, pero cada paso es una oportunidad para crecer.

Durante mi trayectoria, he aprendido lecciones que me han hecho más fuerte, y quiero compartirlas con ustedes, esperando que les sirva tanto como a mí. La adaptación cultural me hizo más fuerte, aprendí a atreverme y a tomar riesgos; comprendí que el fracaso no existe, solo las lecciones; y finalmente, descubrí la importancia de encontrar un propósito.

Quiero decirles que el futuro está lleno de oportunidades y yo soy la prueba de que los sueños, la pasión y el esfuerzo pueden llevarnos a lugares inimaginables. En mi caso, me llevaron hasta el mundo de la tecnología, donde cada día encuentro nuevas formas de conectar y transformar.