Pure Storage anunció un cambio de nombre a la vez que hizo público el acuerdo definitivo de adquisición de 1touch. Según los responsables de este cambio, no habrá cambios en la estructura ni en el liderazgo de la compañía, con productos que dejarán de ser “by Pure Storage” para pasar a ser “by Everpure”. El cambio de nombre, según las autoridades, obedece a un cambio en el negocio, que ahora no solo debe enfocarse en almacenamiento, sino también en la gestión de datos de cara a fomentar capacidades de análisis e Inteligencia Artificial.
“La estrategia de Everpure aborda dos importantes desafíos empresariales al permitir a nuestros clientes crear su propia Nube de Datos Empresariales. El primero es que los clientes gestionan sus conjuntos de datos con personas, no con software. Esto hace que la gestión de conjuntos de datos sea inconsistente, laboriosa y propensa a errores. No existe una gestión automatizada del ciclo de vida de los conjuntos de datos. El segundo desafío es que la arquitectura tradicional de almacenamiento empresarial, diseñada para sistemas operativos de registro, no está optimizada para los sistemas de inteligencia de IA y análisis”, planteó en el blog de la compañía el ahora CEO de Everpure (antes Pure Storage), Charles Giancarlo, el 23 de febrero.
“Entre ambos se encuentra una gran brecha de trabajo humano, herramientas de extracción, transformación y carga (ETL), semanas de ajustes y aún más hardware y software de almacenamiento y computación. Nuestra estrategia de Nube de Datos Empresariales soluciona este problema”, definió el CEO, que también aseguró que ahora la compañía está en posición de hacer más que automatizar el almacenamiento de datos para sus clientes.
“Podemos permitirles gestionar mejor sus datos empresariales globales a escala. Con Everpure Fusion y nuestra arquitectura Enterprise Data Cloud, las empresas pueden aplicar una gobernanza basada en políticas en todas las cargas de trabajo, yendo más allá del almacenamiento tradicional para estandarizar, proteger y gestionar inteligentemente sus conjuntos de datos. Esto representa una evolución significativa de la gestión de infraestructura a una gobernanza integral de datos y ofrece capacidades únicas y diferenciadas para la gestión de cargas de trabajo empresariales”, dijo.
Esta movida de Pure Storage se complementa con el acuerdo definitivo para adquirir 1touch. “Con 1touch, los clientes podrán aprovechar el valor estratégico de sus datos y prepararlos para la IA —dijo Giancarlo—. La tecnología de 1touch aborda los desafíos de datos a nivel empresarial al mejorar la ciberresiliencia, fortalecer la soberanía de los datos y el cumplimiento normativo, y permitir una caracterización y contextualización más profundas de los datos para la preparación para la IA. Estas capacidades son fundamentales para preparar los datos para la IA y representan un elemento fundamental para un futuro en el que la IA se implemente en toda la empresa”.
“Nuestro nuevo nombre, Everpure, representa nuestra plataforma adaptable y en constante evolución, así como nuestro compromiso con los clientes: un sistema inteligente y dinámico, basado en nuestra promesa Evergreen y en los principios fundacionales de la empresa”, sintetizó Giancarlo. La transacción está sujeta a las condiciones de cierre habituales y se espera que la adquisición (por un monto no revelado) de 1touch se cierre en el segundo trimestre del año fiscal 2027.
El ecosistema tecnológico de América Latina atraviesa un momento de reconfiguración profunda. En un mercado donde la simple transacción de productos ya no garantiza la sostenibilidad, la especialización y la generación de valor se han convertido en los verdaderos motores de la rentabilidad. Entendiendo esta metamorfosis, el ciclo de eventos Channel Talks anuncia una evolución estratégica en su estructura para este 2026, diversificando su oferta en tres formatos específicos diseñados para conectar de forma más eficiente a marcas, mayoristas y canales.
Esta renovación busca que cada actor de la cadena de valor encuentre un espacio alineado exactamente con su estrategia comercial. Mientras que la gira mantendrá su esencia federal y regional, recorriendo plazas clave en Argentina, Uruguay, Chile, Bolivia, Paraguay, Perú, Colombia y México, la modalidad del encuentro variará según las necesidades de cada mercado y el perfil de los asistentes.
Los tres pilares de la estrategia 2026
La nueva estructura se divide en tres niveles de interacción, escalando desde la exposición masiva hasta la reunión de alta dirección:
Channel Talks (Formato Exposición): Este pilar se mantiene como el gran punto de encuentro para el canal transaccional. Con un enfoque en los segmentos B2C, B2B y Corporativo, ofrece un espacio dinámico de cuatro horas donde los expositores (marcas y mayoristas) cuentan con mesas de exhibición de productos y salones de charlas independientes. Es el formato ideal para quienes buscan visibilidad, volumen de contactos y presentar novedades de producto a una audiencia amplia.
Channel Biz (Panel & Demo): Pensado exclusivamente para el ecosistema B2B y Corporativo, este formato de cuatro horas prioriza el conocimiento. El evento se desarrollará en dos áreas principales: los «Demo Stands» con soporte técnico y pantallas, facilitando demostraciones de soluciones complejas; y el Salón de Charlas. La novedad principal es la inclusión de paneles de expertos donde marcas y mayoristas debaten sobre tendencias y temáticas específicas del mercado.
Channel Select (Reuniones de Alto Impacto): Es la propuesta más exclusiva y segmentada del portafolio. Se aleja de la masividad para centrarse en reuniones privadas de 30 minutos entre marcas y un grupo selecto de hasta 25 socios de negocios de nichos específicos. En un entorno de mesa tipo directorio o formato en U, este modelo garantiza una interacción cara a cara de alta calidad, ideal para cerrar acuerdos estratégicos y profundizar en mercados verticales.
Una respuesta a la evolución del mercado
El cambio de formato no es casual. La industria IT actual exige que los fabricantes y mayoristas dejen de ver al canal como un simple revendedor para tratarlo como un aliado estratégico. Al segmentar los eventos, se asegura que el tiempo invertido por los asistentes se traduzca en herramientas reales para mejorar su negocio.
Para los expositores, esta diversificación permite una inversión más inteligente. Una marca puede optar por el formato Talks en una plaza donde busca expansión territorial, o elegir el Select en mercados más maduros donde requiere consolidar la relación con sus partners «Tier 1».
Con esta transformación, Channel Talks se posiciona no solo como un evento, sino como una plataforma de business matchmaking que optimiza el networking y el desarrollo de nuevos negocios en toda la región, garantizando que cada encuentro sea el punto de partida de una nueva oportunidad comercial.
A lo largo del año, informaremos a través de nuestros medios y redes sociales sobre los eventos programados en Argentina y la región para este 2026. ¡Pronto más novedades!
La computación en la nube continúa ganando protagonismo entre empresas de todos los tamaños, consolidándose como una plataforma clave para operar con mayor agilidad, seguridad y eficiencia. Cada vez más organizaciones están migrando desde infraestructuras tradicionales hacia entornos cloud, que permiten acceder a datos y aplicaciones en tiempo real, sin depender de hardware propio ni de centros de datos locales.
Desde Oracle explican que la adopción de la nube responde a necesidades concretas del negocio, como reducir la complejidad operativa, asegurar la continuidad de las operaciones y responder con mayor rapidez a escenarios cambiantes.
“La computación en la nube permite a las empresas enfocarse en su operación y en la generación de valor, sin destinar recursos a la gestión de infraestructura. Hoy vemos cómo este modelo entrega mayor flexibilidad, control de costos y rapidez para adaptarse a las necesidades del negocio”, señaló Charly Leiva, Cloud Engineer Manager de Oracle.
Las 10 principales ventajas de la computación en la nube
Acceso desde cualquier lugar y dispositivo: empleados, equipos distribuidos y clientes pueden acceder a información actualizada en tiempo real, facilitando el trabajo remoto y la operación de sucursales en distintos países.
Menor dependencia de hardware y centros de datos locales: la nube permite prescindir de servidores, redes redundantes y sistemas de respaldo propios, reduciendo costos de inversión y mantenimiento.
Seguridad de datos centralizada: las copias de seguridad se almacenan en centros de datos especializados, disminuyendo el riesgo de pérdida de información ante fallas técnicas o desastres.
Protección avanzada de la información: tecnologías como cifrado de datos, autenticación multifactor y seguridad automatizada ofrecen mayores niveles de protección que muchas infraestructuras tradicionales.
Mayor rendimiento y disponibilidad: el uso simultáneo de recursos de computación permite mejorar el desempeño y asegurar alta disponibilidad sin tiempos de inactividad.
Actualizaciones automáticas y sin interrupciones: los proveedores de nube se encargan de mantener los sistemas actualizados y corregir vulnerabilidades de forma transparente para los usuarios.
Implementación rápida de aplicaciones: las soluciones cloud pueden desplegarse en plazos cortos, sin adquirir hardware adicional ni esperar configuraciones complejas.
Acceso inmediato a información para la toma de decisiones: la disponibilidad de datos en tiempo real facilita decisiones más informadas y el uso de análisis predictivos.
Continuidad operativa ante contingencias: los sistemas en la nube permiten activar respaldos de forma remota y mantener operativas las funciones críticas del negocio.
Mejor relación precio-rendimiento y escalabilidad: el modelo de pago por uso permite ajustar recursos según la demanda real y crecer sin grandes inversiones iniciales.
En conclusión, estos beneficios explican por qué la computación en la nube se ha convertido en un habilitador clave para la competitividad empresarial, permitiendo a las organizaciones operar con mayor resiliencia, eficiencia y capacidad de adaptación.
Diego Idárraga menciona que el objetivo principal de Dynatrace es administrar la multiplicidad de datos a través de IA (IAOPs), así como apoyar a todas las empresas que consideran que sus servicios críticos requieren de observabilidad, no sólo de tecnología, sino del contexto del negocio, sin importar su tamaño o la industria a la que pertenezcan.
“La observabilidad es la evolución natural, integral e inteligente del monitoreo de los sistemas, nuestro enfoque es soportar alas empresas que basan el desarrollo de su negocio en el valor de los datos y cómo éstos ayudan a tomar decisiones de negocio mediante la observabilidad de principio a fin de las transacciones, procesos e interacciones de los clientes, especialmente exponenciados por las iniciativas de IA en las empresas, como la agéntica. Sólo Dynatrace ofrece una visibilidad total de los datos, una tarea imposible de administrar por un humano”, indicó.
Diego cuenta con una vasta carrera profesional en el ámbito de las TIC ya que previamente ocupó diversos cargos en otras empresas globales de software. Es Ingeniero en Sistemas por la Universidad Nacional de Colombia y tiene diversos diplomas en Comercio, Marketing y Alta Gerencia Estratégica.
Nuevas innovaciones de la plataforma Dynatrace
El vicepresidente para NOLA de Dynatrace expuso algunas de las innovaciones que brinda la plataforma de observabilidad para que las empresas puedan aprovechar los datos e impulsar iniciativas críticas de IA y operar con mayor rapidez y confianza:
Dynatrace Intelligence. Primer sistema de operaciones agénticas de la industria que fusiona la IA determinista y la IA agéntica para obtener resultados fiables, representa la siguiente fase en la evolución de la plataforma Dynatrace. Combina inteligencia determinista basada en un contexto causal en tiempo real con IA agéntica capaz de razonar, decidir y actuar con seguridad dentro de unos límites definidos.
Los agentes de Dynatrace Intelligence convierten la acción en información valiosa. Basados en Dynatrace Intelligence, los agentes de Dynatrace Intelligence transforman las respuestas en resultados al actuar en los flujos de trabajo con rapidez, precisión y gobernanza. Estos agentes se han diseñado para impulsar resultados autónomos de ciclo cerrado en las operaciones empresariales y de TI.
Los Agentes de Inteligencia de Dynatrace introducen un modelo intuitivo para las operaciones agénticas, permitiendo a los clientes utilizar agentes especializados que trabajan conjuntamente en diferentes responsabilidades y ámbitos.
Nuevas capacidades ampliadas de operaciones en la nube. Las nuevas integraciones nativas en la nube de Dynatrace proporcionarán a las empresas una visión más clara y unificada de los entornos multinube gracias a las integraciones nativas en la nube ampliadas en Amazon Web Services (AWS), Microsoft Azure y Google Cloud Platform (GCP). Lo que aportará visibilidad en un solo lugar, lo que ayudará a los equipos a encontrar y solucionar problemas más rápidamente y reducirá las interrupciones para los usuarios finales. Gracias a la singularidad de Grail, un data lakehouse unificado líder en la industria; el gráfico de dependencias en tiempo real, Smartscape, y Dynatrace Intelligence, esta combinación aplicará la IA para ayudar a las organizaciones a comprender, automatizar y operar a través de esta creciente complejidad.
Lanzamiento de experiencias mejoradas para desarrolladores. Dynatrace presenta nuevas capacidades para transformar la observabilidad en un sistema activo de control para la entrega de software nativo de la nube y la IA. Con estas mejoras, las empresas pueden convertir la observabilidad en un motor dinámico de la productividad de los desarrolladores, pasando de la simple información a un sistema inteligente que guía, optimiza y protege activamente la entrega de software en tiempo real.
Miles de las más importantes empresas confían en la plataforma de Dynatrace, compañías como TD Bank, Air Canadá, BT, Virgin Money, el gobierno de Australia y muchos más utilizan su plataforma.
El almacenamiento en la nube ya es una práctica cotidiana en América Latina. Un estudio de Kaspersky revela que el 67% de los usuarios en la región guarda fotos, contactos y conversaciones de su celular en servicios online, una tendencia que facilita el acceso y el respaldo de la información, pero que también amplía los riesgos de exposición en un entorno cada vez más atractivo para los ciberdelincuentes.
La motivación principal es clara: un 72% de los latinoamericanos utiliza la nube como medida de protección ante el robo o pérdida del dispositivo, mientras que un 56% la elige para liberar espacio en el teléfono o la computadora. Lo que comenzó como una solución práctica para liberar espacio hoy se ha transformado en un hábito masivo que redefine la manera en que los latinoamericanos resguardan y comparten sus datos personales.
Sin embargo, esta confianza creciente en los entornos digitales también trae riesgos asociados, pues a medida que más actividades migran a la nube, los delitos informáticos se intensifican, dejando en evidencia fallas tanto en algunos servicios de almacenamiento como en la manera en que los usuarios gestionan su información.
Cuando la información se traslada a la nube, deja de depender únicamente del dispositivo y pasa a circular por múltiples capas digitales, como cuentas de acceso, aplicaciones conectadas y dispositivos sincronizados. Esto implica que una sola brecha, como la pérdida de control de una cuenta, puede derivar en la exposición simultánea de grandes volúmenes de datos personales.
En la práctica, los riesgos más frecuentes se originan en configuraciones inseguras, el robo de credenciales mediante ingeniería social, especialmente a través de ataques de phishing, el desconocimiento sobre cómo proteger los dispositivos del hogar digital y los errores humanos, como el uso de contraseñas débiles, la apertura de enlaces maliciosos o la descarga de archivos infectados. La combinación de estos factores convierte a la nube en un objetivo cada vez más atractivo para los cibercriminales.
El estudio reveló que casi un 40% de los usuarios de América Latina no protege su nube o no consideran necesario hacerlo. Además, persiste un nivel de desconocimiento preocupante: un 19% asegura que no sabe cómo proteger sus datos almacenados y un 13% admite que desconocía que la nube requiere medidas de seguridad adicionales.
“Hoy nuestra vida completa, desde fotos familiares hasta documentos personales, vive en la nube. Pero esa masificación no ha ido acompañada del mismo nivel de conciencia sobre cómo protegerla. Muchos usuarios creen que el proveedor se encarga de todo, cuando en realidad la seguridad es compartida. Si no se aplican medidas básicas, los respaldos corren riesgo de sufrir accesos no autorizados o incluso de pérdida definitiva. Es clave que los consumidores aprendan a identificar qué información requiere cifrado, cómo manejar sus claves de manera segura y qué señales pueden alertar de una vulneración”, asegura Fabiano Tricarico, Director de Productos para el Consumidor para Américas en Kaspersky.
Para proteger los aspectos de la vida digital que están almacenados en la nube, los expertos de Kaspersky recomiendan:
Revisar los permisos de acceso y uso compartido: especialmente cuando se trata de archivos y documentos sensibles, de esta manera, poder asegurarse de que solo personas autorizadas puedan ver o editar la información.
Cifrar los archivos importantes: No todo lo que se guarda en la nube necesita cifrado, pero información sensible como documentos fiscales, archivos médicos o datos financieros sí requieren esta capa extra de protección.
Desconfiar de correos o mensajes que soliciten credenciales de acceso a la plataforma: incluso si aparentan provenir del proveedor de la nube, ya que esta sigue siendo una de las principales puertas de entrada para vulnerar los servicios de almacenamiento.
Usar contraseñas fuertes y activar la autenticación en dos pasos (2FA): Crear contraseñas únicas y robustas para cada servicio en la nube, combinando letras, números y caracteres especiales, y evitar reutilizarlas en otras plataformas. Siempre que sea posible, activar la autenticación de dos factores para añadir una capa extra de seguridad en caso de que las credenciales se vean comprometidas.
Proteger la vida digital con una solución de seguridad: Instalar en todos los dispositivos desde los que se accede a la nube un software de seguridad confiable, como Kaspersky Premium. Estas soluciones ayudan a detectar y bloquear amenazas como malware, phishing o accesos no autorizados que pueden poner en riesgo la información.
El colombiano David Velasco Gómez es el nuevo Gerente de Ventas de Dorlet Internacional para Latinoamérica, excluyendo México. Desde esta posición, con sede en Colombia, está liderando el desembarco de la cara internacional de Dorlet en América Latina. Vale aclarar que la compañía, nacida en España hace 35 años, tiene también presencia en Francia y en Emiratos Árabes (Dubai).
“En Dorlet estamos muy orientados a la fabricación de hardware y software de seguridad integral. Diseñamos y personalizamos soluciones, principalmente para las infraestructuras de operación crítica, sobre todo en España. En ese contexto, Dorlet Internacional es la apuesta de Dorlet por generalizar el conocimiento y los productos”, aclaró Velasco, quien forma parte de ese equipo que está fuera de España para desarrollar negocios en otras regiones del mundo. Esa apuesta, que desembarcó en México hace seis años, ahora llega a Colombia como puente hacia otros países de la región, como Argentina y Brasil. “La apuesta es a todo el mercado latinoamericano”, enfatizó.
Con foco en las industrias verticales
El expertise y las soluciones que permiten a Dorlet tener presencia en grandes proyectos de infraestructura se sitúa, precisamente, en el control de acceso a las instalaciones. “A partir de ahí, de ese primer ingreso a los grandes proyectos, desarrollamos una serie de aplicaciones muy específicas para diferentes tipos de negocio, siempre en relación con la seguridad física”, comentó Velasco.
«En Dorlet estamos muy orientados a la fabricación de hardware y software de seguridad integral. Diseñamos y personalizamos soluciones, principalmente para las infraestructuras de operación crítica…»
Hoy Dorlet provee soluciones, entre otras verticales, en Industria, Instituciones Financieras, Puertos y Aeropuertos, Hotelería y Espacios de Entretenimiento, Universidades y Espacios Culturales, con grandes casos de éxito.“Entendemos muy bien los requerimientos que puede tener un cliente, por ejemplo, en temas de control de acceso a un aeropuerto. Pero también puede ser un puerto, o un edificio corporativo, o incluso un edificio gubernamental”, agregó el ejecutivo. La compañía viene desarrollando fuertemente productos y know-how sobre cada uno de los diversos casos de uso, apoyados en buena medida por el equipo de I+D que la compañía tiene en origen. “Si consideramos toda la planta de personal, el 50% se dedica a I+D. Allí vas a encontrar ingenieros, técnicos, desarrolladores de software…”
“Dorlet es una empresa en la que los clientes y los partners pueden confiar para satisfacer sus necesidades. Habrá situaciones en las que hay que poner a hablar entre sí diferentes sistemas dentro del ecosistema de seguridad, y nosotros somos ese puente que los conecta, aprovechando el expertise de nuestro equipo”, enfatizó el ejecutivo regional quien, previo a esta posición, trabajó once años en Bosch Security and Safety Systems.
El desembarco regional
Hoy Dorlet tiene solo tres personas en la región. Una gerencia de Ventas en México, un gerente técnico (en principio para México, aunque por ahora compartido) y el propio Velasco abriéndose paso hacia el sur. La elección de Colombia como cabeza de playa obedece a su ubicación relativa respecto de otros centros neurálgicos del continente. “Por supuesto, Colombia es un mercado atractivo, muy maduro. Allí pondremos el énfasis al principio porque entendemos que tiene el tipo de proyectos en los cuales queremos probar nuestras tecnologías, y que ese aprendizaje nos va a servir para replicar las experiencias en otras partes de la región”.
«Entendemos muy bien los requerimientos que puede tener un cliente, por ejemplo, en temas de control de acceso a un aeropuerto. Pero también puede ser un puerto, o un edificio corporativo, o incluso un edificio gubernamental».
Desde allí, la compañía planea llegar a otros mercados reproduciendo las estructuras, como Argentina (donde Velasco ve buenas perspectivas de negocio) y Brasil (que, por su tamaño y complejidades, plantea un gran desafío). “Dentro de mi plan de trabajo, por supuesto, está el establecer una base de trabajo en Colombia. En el futuro cercano la idea es establecer un equipo de Soporte Técnico en Colombia, otro de Preventa y, a partir de ese experimento, si va bien, replicar esa estructura en los países más estratégicos”.
Vale recordar que la compañía ya tiene numerosos proyectos en la región, en Industria, Energía, Transporte, Educación y Salud, incluyendo:
Planta Solidificadora PEMEX (México).
Parque Eólico Ventica (México).
Parque Eólico Oaxaca (México).
Túnel de Mazatlán (México).
Universidad Minuto de Dios (Colombia).
Universidad del Área Andina (Colombia).
Hospital de Curicó (Chile).
“Nuestro reto a mediano plazo es que Dorlet empiece a sonar dentro de la mente de nuestros usuarios, de nuestro ecosistema, de nuestros aliados. Que podamos posicionar la marca y la tecnología dentro de nuestros verticales de interés”, definió Velasco. “Obviamente eso implica un montón de trabajo, pero evidentemente es un trabajo que nosotros no hacemos solos. En esta iniciativa, para nosotros es muy importante el integrador de soluciones”. Para el ejecutivo los integradores son brazos multiplicadores del esfuerzo que ya está haciendo Dorlet. “Es un brazo en el que seguramente nos vamos a apoyar mucho desde el punto de vista comercial”.
Los brazos ejecutivos
“Para nosotros —insistió Velasco— va a ser muy importante que comercialmente sea muy clara la propuesta de valor y que, por supuesto, estos aliados (los integradores) también tengan el conocimiento técnico que nosotros le traspasaremos. Serán ellos quienes nos ayuden a soportar el correcto funcionamiento de nuestras tecnologías en los usuarios finales donde quieran llegar. Para nosotros es estratégico tener un ecosistema de integradores profesionalizados que conozcan el producto, que técnicamente lo soporten y que, por supuesto, comercialmente también nos ayuden a llevar este mensaje a los diferentes países”.
«Dentro de mi plan de trabajo, por supuesto, está el establecer una base de trabajo en Colombia. En el futuro cercano la idea es establecer un equipo de Soporte Técnico en Colombia, otro de Preventa y, a partir de ese experimento, si va bien, replicar esa estructura en los países más estratégicos».
Hoy la compañía se encuentra trabajando en un programa de canales que contemple las diferentes realidades de los distintos países de la región, permitiendo además registrar proyectos y obtener descuentos en el momento de declarar los pliegos. También planean invertir en recursos de marketing para promoción y generación de demanda que beneficie al partner. “La idea es que tengamos listo todo esto para el segundo semestre”, anunció Velasco, quien considera que la figura del integrador será esencial en el armado y la “customización” de las soluciones para las distintas actividades.
“Ingresamos en los usuarios por una solución de control de acceso, pero se podría pensar que esto es un estándar. Una vez que entramos a los diferentes tipos de negocios, ahí personalizamos los requerimientos —graficó Velasco—. Pongamos por caso los requerimientos de control de acceso de un puerto, que involucran tecnologías como molinetes, talanqueras, controladores, etc. Pero también el control de acceso debe interactuar con otros sistemas. En los puertos encuentras, por ejemplo, que hay una gran cantidad de contratistas y que el control de acceso tiene que gestionar también los ingresos y egresos de esos contratistas. Ahí es donde se da la posibilidad de hacer integración de bases de datos, para atender tanto al personal de planta como al del contratista. Y es el integrador quien nos ayuda a materializar esa propuesta”.
Con todo, y más allá de la necesidad de personalización, Velasco aseguró que Dorlet se mantiene cerca de los partners para asistirlos en procesos que van más allá del simple despliegue “clásico” de control de acceso. “Tenemos nuestra plataforma certificada por SAP. Entonces, si por ejemplo tienes sistemas de ERP de SAP y tienes un requerimiento de control de acceso, ese camino ya está construido. Habitualmente cuando tú pones un integrador y tienes esta necesidad, ese integrador puede llegar a suplirlo, pero su curva de aprendizaje va a ser más veloz si ya está construido el camino”, explicó Velasco respecto de la gran cantidad de casos documentados con soluciones que ya han sido probadas y están a disposición de los partners para satisfacer la demanda en un amplio rango de clientes. A esto se suman recursos técnicos, financieros y hasta logísticos que pueden ayudar a los partners a hacer más sencilla su experiencia con la marca.
Sobre el Go To Market, Velasco aseguró: “Tenemos establecido que nunca vamos al usuario final. Nunca vamos a vender al usuario final, aunque sí generamos la demanda. Vamos a ayudar a nuestros integradores a que sean ellos quienes ofrezcan las soluciones. Para nosotros es muy importante que esto sea rentable para todas las partes de la cadena de valor”.
Con todo, ese compromiso de ir a través de partners al mercado admite una cierta flexibilidad, en función de las necesidades de esos partners y sus posibilidades: “La realidad de, por ejemplo, de una compra en Guatemala es muy diferente a la realidad de una compra en Colombia. Entendiendo que nuestros productos son totalmente fabricados en España, lo que habitualmente hacemos —y queremos que nuestros integradores sepan— es que nos adaptamos al modelo que les sea más conveniente para la compra. Si el integrador tiene la posibilidad y el expertise de realizar importaciones, este modelo está habilitado. Si, en cambio, considera que su valor agregado no está en los temas logísticos, entonces también podemos viabilizar esos negocios a través de los distribuidores”. En la actualidad, Dorlet Internacional se encuentra en conversaciones incipientes con varios distribuidores, y es posible que pronto haya novedades.
Consultado sobre las oportunidades de negocios que ven en la región para sus soluciones, el ejecutivo de Dorlet dijo: “Definitivamente el sector de las energías renovables es muy interesante. Es un sector que está avanzando muy rápidamente. Todo lo que tiene que ver con plantas solares, plantas eólicas… eso está creciendo mucho en la región. El sector universitario, y en general en Educación, nos hemos posicionado también muy fuertemente. Yo creo que en el sector Transporte también demandará estas soluciones, sobre todo en proyectos de metros, aeropuertos, puertos… es donde estamos viendo las mayores oportunidades en la región”.
Si 2025 fue el año en que las empresas aprendieron a experimentar con la IA, entonces 2026 será el año en que aprendan a depender de ella.
La era de los proyectos piloto y de las herramientas aisladas de IA Generativa está dando paso a algo mucho más transformador: sistemas de IA capaces de actuar, decidir y operar con creciente autonomía, redefiniendo no solo la forma en que funcionan los negocios, sino también la infraestructura subyacente que las naciones utilizan para asegurar su futuro.
El hilo conductor más poderoso que conecta las principales tendencias del próximo año es simple pero profundo: la IA está evolucionando de una capacidad a una capa fundacional de la competitividad económica. Todo lo demás —desde la estrategia de datos y la arquitectura Cloud hasta el diseño de hardware y los modelos de fuerza laboral— ahora orbita en torno a ese cambio.
En el centro de esta transformación está el auge de la IA Agéntica, la tendencia tecnológica empresarial definitoria de 2026. A diferencia de los modelos generativos anteriores que simplemente producían contenido, los sistemas de IA Agéntica pueden ejecutar tareas, tomar decisiones y operar de manera autónoma dentro de los flujos de trabajo del negocio.
Las empresas los integrarán en sus cadenas de suministro, operaciones de atención al cliente, procesos de cumplimiento y rutinas de análisis financiero. Estos agentes no solo responderán preguntas: tomarán acciones, activando flujos de trabajo, ajustando parámetros en tiempo real y gestionando decisiones que antes estaban en manos de personas.
Pero con la autonomía llega la complejidad. Las organizaciones necesitarán sólidos sistemas de gobernanza, marcos de confianza y canalizaciones de datos de alta calidad para garantizar que estos agentes se comporten de manera predecible y responsable. Aquí emerge la segunda gran tendencia de 2026: los datos se convierten en la principal fuente de diferenciación competitiva.
A medida que el cómputo, los modelos e incluso los algoritmos avanzados continúan “comoditizándose”, el diferenciador pasa a ser el dato propietario, de alta calidad y bien gobernado. Cada empresa deberá enfrentar una realidad común: la sofisticación de su IA dependerá menos de la potencia de sus modelos y más de la precisión, limpieza y confiabilidad de los datos que los alimentan.
Las compañías con ecosistemas de datos maduros tomarán ventaja rápidamente. Aquellas que no lo estén, tendrán dificultades para adaptarse, ya que los sistemas agénticos requieren ciclos de decisión más rápidos, correlación en tiempo real y señales contextuales más granulares.
El tercer hilo conductor se apoya en este cambio: los gobiernos de todo el mundo ahora consideran la infraestructura de IA como un activo estratégico, al nivel de la energía o la defensa. El crecimiento de las nubes soberanas no es un movimiento de nicho, sino una respuesta geopolítica a la era de la IA.
Las naciones quieren la capacidad de poseer y proteger los datos que impulsan sus economías y resguardan a sus poblaciones. Exigen garantías sobre dónde se almacena la información sensible, cómo se entrenan los modelos y si los sistemas de IA pueden respetar los límites regulatorios.
En 2026, se espera una aceleración significativa de los ecosistemas de nube soberana. Los países invertirán en centros de datos preparados para cumplir con regulaciones y diseñados específicamente para cargas de trabajo de IA, con alta eficiencia energética. Estas instalaciones se convertirán en los santuarios de los datos ciudadanos, financieros y vinculados a la defensa, construidos para soportar el cumplimiento normativo y la supervisión nacional. A medida que proliferen los agentes de IA, la necesidad de supervisión nacional y control de la infraestructura será imposible de ignorar.
Esto conecta directamente con la cuarta tendencia: la IA está llevando al límite físico las arquitecturas actuales de los centros de datos, forzando un ciclo de modernización sin precedentes. Las cargas de trabajo de IA y de sistemas agénticos demandan una densidad de cómputo extraordinaria, aceleradores especializados y arquitecturas de almacenamiento diseñadas para baja latencia y alto rendimiento. Las limitaciones de energía y refrigeración, antes consideradas un tema operativo, ahora se convierten en un factor restrictivo para la innovación en IA.
Esta modernización no se trata solo de rendimiento. Está impulsada por la necesidad de liberar capacidad eléctrica para las cargas de trabajo de IA. Si las empresas no pueden liberar capacidad energética, no expandirán sus capacidades de IA, quedando rezagadas competitivamente. Los requisitos de sostenibilidad y las regulaciones emergentes también acelerarán este cambio, convirtiendo la eficiencia energética no solo en una mejora operativa, sino en un imperativo de cumplimiento.
A través de estas tendencias clave emerge una narrativa única: la IA ya no es una herramienta superpuesta a las operaciones del negocio. Es la columna vertebral sobre la que dependerán las operaciones, la infraestructura, la regulación y las estrategias de los países.
La IA agéntica impulsa la necesidad de mejores datos. Mejores datos impulsan la necesidad de entornos seguros, soberanos y conformes. Esos entornos requieren infraestructura modernizada y energéticamente eficiente, diseñada específicamente para la automatización inteligente. Este ecosistema se retroalimenta.
Y entre todo ello persiste una verdad humana final. Aunque los sistemas se vuelvan más autónomos, las personas siguen siendo esenciales. En 2026 veremos un fuerte impulso en la recapacitación de la fuerza laboral, no para convertir a los empleados en programadores, sino en orquestadores capaces de aprovechar estos sistemas autónomos para transformar sus industrias.
Los próximos grandes avances no vendrán únicamente de científicos de datos, sino que también de expertos potenciados por IA.
En 2026, la IA se convierte en la nueva infraestructura, y las organizaciones que comprendan este cambio de manera temprana definirán el panorama competitivo durante los próximos años.
Durante la última década, América Latina ha avanzado de forma constante en digitalización. Sin embargo, la acelerada irrupción de la Inteligencia Artificial (IA), desde modelos generativos hasta IA agente emergente, ha marcado un punto de inflexión que trasciende cualquier ciclo tecnológico previo. El crecimiento exponencial de los datos, la necesidad de análisis en tiempo real y la presión por reducir los costes energéticos han dado lugar a un nuevo megaciclo: el de la computación de alto rendimiento (HPC) aplicada a la Inteligencia Artificial. Desde AMD, destacan que este fenómeno es comparable, debido a su impacto estructural, a la adopción de la nube o la virtualización, pero con un alcance aún mayor en infraestructuras críticas.
Las arquitecturas tradicionales, diseñadas para cargas de trabajo generales, ya no son suficientes para sostener las demandas actuales de IA. El entrenamiento de modelos a gran escala, la inferencia avanzada y las simulaciones científicas requieren una integración eficiente entre CPU, GPU, memoria y redes de alta velocidad. Mantener estos procesos en plataformas no optimizadas puede aumentar significativamente el consumo energético y el coste total de propiedad, una variable especialmente sensible para los mercados latinoamericanos.
En este contexto, los procesadores EPYC AMD de quinta generación se han consolidado como la columna vertebral del centro de datos moderno. Su alta densidad de núcleos, ancho de banda de memoria y eficiencia de liderazgo por vatio permiten orquestar cargas de IA y HPC de forma equilibrada. Los ejecutivos de la compañía sostienen que estos procesadores no solo alimentan las GPUs, sino que gestionan eficientemente los datos, el almacenamiento y las redes, permitiendo centros de datos altamente escalables y sostenibles, con un impacto directo en el TCO.
Complementando este papel, las GPUs AMDInstinct, desde la familia MI300 hasta la hoja de ruta MI400 presentada en el CES 2026, están diseñadas específicamente para cargas intensivas de IA y computación científica. Estas arquitecturas integradas permiten altos niveles de densidad computacional y eficiencia energética, facilitando casos de uso antes reservados a superordenadores de clase mundial. En América Latina, ya existen ejemplos concretos de este impacto, como la modernización de infraestructuras públicas de supercomputación que han logrado multiplicar su capacidad de procesamiento con aumentos controlados de energía, acelerando la investigación, la innovación y los servicios críticos.
Sin embargo, este megaciclo no se sostiene únicamente con hardware. El ecosistema de software abierto es un facilitador estratégico. En este sentido, la plataforma de software abierto AMD ROCm, permite ejecutar frameworks clave como PyTorch y TensorFlow sin dependencias propietarias, ofreciendo libertad y flexibilidad tecnológica. Según la información presentada durante la última feria tecnológica de Las Vegas, esta plataforma registró un crecimiento de hasta 10 veces en descargas interanual y duplicó su soporte en CPU Ryzen y productos de GPU Radeon durante 2025, reflejando una adopción acelerada por parte de desarrolladores y empresas a nivel mundial.
El megaciclo de computación de alto rendimiento no es una tendencia pasajera, sino la base sobre la que se construirá la próxima década de innovación. Para AMD, la reflexión final es clara: las organizaciones que invierten hoy en arquitecturas equilibradas, eficientes y abiertas estarán mejor preparadas para un futuro en el que la inteligencia artificial no solo apoye al negocio, sino que también se convierta en su principal motor de competitividad y desarrollo sostenible.
Con la participación de líderes tecnológicos, expertos en infraestructura digital y tomadores de decisión de toda América Latina, se realizó GSIC2026 (Grow, Share, Inspire and Connect), el encuentro regional organizado por Panduit que analiza las tendencias que están redefiniendo la conectividad, los centros de datos y la infraestructura crítica en la región.
Durante esta edición, más de 700 asistentes provenientes de 18 países abordaron los principales desafíos y oportunidades que enfrenta la región ante el crecimiento acelerado del tráfico de datos, la adopción de la Inteligencia Artificial (IA), la evolución de los centros de datos, la automatización industrial y la necesidad de infraestructuras más resilientes, eficientes y preparadas para el futuro.
“La infraestructura física se ha convertido en un habilitador crítico para iniciativas como la Inteligencia Artificial, la automatización y el edge computing. En GSIC buscamos ir más allá de hablar solo de tecnología y abrir conversaciones prácticas sobre cómo diseñar y operar infraestructuras con una visión de largo plazo”, comentó Carlos Arochi, Director Business LATAM en Panduit. Además, destacó que la correcta toma de decisiones en esta etapa impactan directamente en la continuidad operativa, la eficiencia y la capacidad de crecimiento de las empresas.
Los especialistas de Panduit y de empresas del ecosistema IT compartieron casos de uso, mejores prácticas y perspectivas sobre cómo diseñar y operar infraestructuras capaces de soportar nuevas cargas de trabajo, entornos de misión crítica y modelos de negocio cada vez más digitales, sin perder de vista aspectos clave como la confiabilidad, la escalabilidad y la sostenibilidad.
La edición 2026 de GSIC reforzó su papel como un foro estratégico para América Latina, al reunir a los principales actores del ecosistema tecnológico regional en un momento clave para la evolución digital de la región. En un contexto marcado por el crecimiento acelerado del tráfico de datos, la adopción de inteligencia artificial y la expansión de servicios digitales, la infraestructura física se consolidó como un habilitador fundamental para impulsar la competitividad, la resiliencia operativa y el desarrollo sostenible de los países latinoamericanos.
El impacto económico del ransomware podría ser abrumador. En este contexto, VDC Research y Kaspersky realizaron una estimación que mostró que, tan solo en el sector manufacturero, las pérdidas potenciales por ataques de ransomware (si hubieran tenido éxito) habrían superado los 18 mil millones de dólares durante los primeros tres trimestres de 2025. A nivel regional, Asia-Pacífico concentra la mayor parte de este impacto, con 11.5 mil millones de dólares en pérdidas potenciales, lo que subraya cómo la rápida digitalización en economías emergentes amplía las superficies de ataque.
En 2025, el ransomware demostró resiliencia, evolución y capacidad de adaptación. Los modelos de “Ransomware como Servicio” (Ransomware-as-a-Service o RaaS) dominaron el panorama. Estos redujeron significativamente las barreras de entrada para ciberdelincuentes novatos al ofrecer malware, programas de afiliados e incluso intermediación de accesos iniciales, lo que ha dado lugar a una división de rescates 90/10 a favor de los operadores. Plataformas como RansomHub (actualmente desmantelada) fueron rápidamente sustituidas por otros grupos como Qilin, Akira, Cl0p y Sinobi.
Las tácticas también han evolucionado de forma alarmante, especialmente aquellas que utilizan controladores vulnerables firmados. Estas se apoyan en la técnica BYOVD (Bring-Your-Own-Vulnerable-Driver o «Trae tu propio controlador vulnerable»), como se ha visto en los ataques realizados por MedusaLocker. La doble y triple extorsión, es decir, cifrar la información mientras se roba en tiempo real para después difundirla entre clientes, reguladores o competidores, se ha convertido en una práctica habitual.
Los atacantes están evadiendo las defensas tradicionales al dirigirse a puntos de entrada poco convencionales: dispositivos IoT, electrodomésticos inteligentes e incluso cámaras web, como ocurrió con el grupo criminal Akira. La integración de la Inteligencia Artificial (IA), en particular los modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés), ha acelerado este fenómeno. Grupos como FunkSec, surgido a finales de 2024, utilizan códigos generados por IA para llevar a cabo ataques de bajo costo y alto volumen contra los sectores gubernamental, financiero y educativo en regiones como India y Europa.
Grupos hacktivistas como HeadMare y Twelve han convertido el ransomware en un arma contra la industria manufacturera y otros objetivos. En África, por ejemplo, aunque la prevalencia es menor debido a una digitalización limitada, focos como Sudáfrica y Nigeria registran un aumento de incidentes en el sector financiero. Por su parte, Europa, respaldada por regulaciones como el Reglamento General de Protección de Datos (GDPR), ha resistido mejor, pero interrupciones como el ataque de RansomHub a oficinas de Kawasaki evidencian las vulnerabilidades en la cadena de suministro.
De cara a 2026, el ransomware no solo persiste, sino que se prepara para dar un salto impulsado por la rápida integración de la Inteligencia Artificial en el cibercrimen. Los sistemas de IA agéntica, capaces de razonar de forma autónoma y adaptarse en tiempo real, probablemente automatizarán toda la cadena de ataque, desde el reconocimiento inicial hasta las demandas finales de extorsión, ejecutándose a velocidades muy superiores a las humanas.
Las plataformas de Ransomware-as-a-Service potenciadas por IA podrían permitir que incluso hackers inexpertos lancen malware polimórfico que muta sobre la marcha o utilicen videos deepfake para chantajear a ejecutivos. El número de víctimas podría dispararse, a medida que los atacantes escalan operaciones de alto volumen contra proveedores externos. Las tácticas de extorsión podrían evolucionar hacia la manipulación encubierta de datos y el sabotaje reputacional, erosionando la confianza en las marcas de la noche a la mañana.
Para mantenerse un paso adelante, las organizaciones deben invertir en inteligencia de amenazas y detección proactiva, así como implementar respaldos inmutables y aislados. También es clave realizar auditorías exhaustivas a la cadena de suministro y adoptar autenticación multifactor avanzada. Además, deben implementarse capacitaciones específicas para contrarrestar esquemas de phishing potenciados por IA.
El auge del ransomware en 2025, marcado por el impulso de la IA, ataques dirigidos y costos desbordados, sirve como advertencia para el mundo empresarial. En 2026, las amenazas autónomas podrían rebasar a quienes no estén preparados, pero con modelos de protección resilientes, las empresas no solo pueden sobrevivir, sino prosperar. La elección es clara: evolucionar más rápido que los atacantes o arriesgarse a convertirse en la próxima noticia de portada.
Para contrarrestar eficazmente el ransomware, se debe comenzar habilitando protección dedicada en todos los endpoints. En empresas no industriales, es recomendable implementar herramientas contra Amenazas Persistentes Avanzadas (anti-APT), así como de Detección y Respuesta de Endpoints (EDR) para fortalecer el descubrimiento de amenazas, su detección, investigación y remediación rápida de incidentes. Además, es fundamental dotar a los equipos SOC de inteligencia de amenazas actualizada y capacitación continua, accesibles mediante plataformas integrales como Kaspersky Next, para construir una estrategia de defensa sólida.
En el caso de organizaciones del sector industrial, es necesario adoptar un ecosistema especializado como Kaspersky Industrial CyberSecurity (KICS), que combina tecnologías diseñadas para entornos de tecnología operativa (OT), conocimiento experto y una plataforma nativa de Detección y Respuesta Extendidas (XDR) pensada para infraestructura crítica. Esta solución ofrece análisis robusto del tráfico de red, protección de endpoints y capacidades de respuesta, integrando la seguridad TI tradicional con medidas específicas para entornos industriales, a fin de frenar amenazas sofisticadas.