Inicio Blog Página 28

Tus datos en la nube, ¿están bien protegidos?

La protección de los datos forma hoy parte de las necesidades primarias de las organizaciones. Esto parece bastante claro cuando se habla de información on premises, ¿Pero qué sucede cuando la información está en la nube? ¿Cuál es el alcance en la protección que un proveedor de servicios ofrece por defecto al contratar suites de aplicaciones y plataformas como servicio? Para generar conciencia y esclarecer algunas de estas cuestiones, ITware Latam convocó a Germán Porras, Director General de Ventas para Latinoamérica de Arcserve; Luis Celis, Territory Account Manager en México & CCA de Arcserve y Hernán Pollini, Gerente de Servicios en Help-Manager. El webinar, celebrado el 23 de abril, estuvo coordinado por Matías Perazzo, Director de ITseller Mexico & Mediaware Latam.

Webinar: Tus datos en la nube, ¿están bien protegidos?

Para Porras, el tema compete a todos, particulares y empresas, habida cuenta del uso que le damos a las nubes, y de cómo dicho uso ha venido creciendo aceleradamente, incluso desde antes de la pandemia. “Parte de este crecimiento acelerado en el uso proviene de la adopción de Software como Servicio (SaaS) y servicios de almacenamiento en la nube. Las empresas deben preocuparse muchísimo por proteger sus datos, y en particular los que están en la nube, porque esos servicios que mencionamos pueden exponer datos críticos, pueden ser directamente susceptibles a las amenazas, como es el caso del ransomware y otras”. Del mismo modo, esos datos se pueden perder por errores humanos. 

En el caso de los modelos de Software as a Service, agregó, “los proveedores manejan un modelo de responsabilidad compartida, donde el cliente es responsable por la parte de los datos y la información que está gestionando”. 

“Hay una falta de conocimiento brutal. Nosotros evangelizamos y hablamos del tema del modelo de responsabilidad compartida de Microsoft (…) Hay una cantidad enorme de gente con la cual yo he platicado personalmente y que no tenía ni la más remota idea. Y estoy hablando de directores de Sistemas que tienen treinta años en el medio”.

Germán Porras, Director General de Ventas para Latinoamérica de Arcserve.

Pollini explicó que lo que el proveedor puede garantizar es la disponibilidad de la aplicación, no el dato. “Hay una creencia, no sé si esta creencia es colectiva, de que el dato que está en la nube está protegido. Pero ante un error humano, incluso, hablamos de un acto involuntario, esa información se puede perder”. El ejecutivo citó el caso de una carpeta “arrastrada” accidentalmente dentro de otra. 

“¿Cómo proteges tus mails? La mayoría de las empresas transaccionan vía correo (en la nube. Pero confunden la disponibilidad de esa aplicación con la protección de los datos”.

Hernán Pollini, Gerente de Servicios en Help-Manager.

Para Celis, esta creencia “se ha masificado tanto que se convirtió en un mito peligroso: en muchas empresas se asume que, al tener contratado el servicio con un proveedor, el dato está protegido. Creo que ahí es donde tenemos que poner mucho ojo. Y aparte también hay muchos datos expuestos”. Celis recordó que los datos pueden perderse por borrados accidentales, errores de sincronización o fallos de configuración, por citar unas pocas causas. “Hay que poner mucho ojo aquí, sobre todo ahora que esa información puede ser objeto de regulaciones”, insistió. 

“Aquí, en México, está la Ley Federal de Protección de Datos Personales, en la cual se requiere que las empresas protejan sus datos sensibles sin importar dónde se encuentren. Entonces creo que ese es un punto bastante importante”. 

Luis Celis, Territory Account Manager en México & CCA de Arcserve

A lo largo del intercambio entre los panelistas virtuales la conversación derivó hacia las estrategias que las empresas deberían implementar y las soluciones disponibles para hacerlo. En este orden, a modo de abordaje a la estrategia de protección de datos en la nube, Porras recomendó contar con un aliado de consultoría, generar verdadera conciencia sobre esta problemática y encontrar los fondos para llevar la estrategia adelante.  

ViewSonic presentó el proyector láser LS630W

Viewsonic

ViewSonic anunció la llegada a Latinoamérica del LS630W, su nuevo proyector láser de alto brillo. Esta propuesta está pensada para escuelas, empresas y espacios grandes que buscan calidad de imagen, durabilidad y bajo mantenimiento.

Con 4,500 lúmenes ANSI, el LS630W garantiza imágenes nítidas y brillantes incluso en ambientes iluminados. Esto lo convierte en una excelente opción para aulas, bibliotecas, salas de reuniones, conferencias o auditorios. (Dato útil: un lumen ANSI mide el brillo del proyector. Cuanto mayor es este número, más clara será la imagen incluso con luz ambiental).

Además, su fuente de luz láser sin lámpara tiene una vida útil de hasta 30,000 horas, lo que se traduce en años de uso sin preocuparse por cambiar bombillas. Esta tecnología no solo reduce los costos de mantenimiento, sino que también mejora la experiencia del usuario al ser más confiable y constante en su rendimiento.

Imágenes grandes y versatilidad en la instalación

El LS630W puede proyectar imágenes de hasta 300 pulgadas, ideal para salones grandes o eventos corporativos. También es muy versátil en cuanto a instalación: permite corrección trapezoidal horizontal y vertical, lo que ajusta la imagen para que se vea recta incluso si el proyector no está perfectamente alineado.

Además, puede proyectar en un ángulo de 360 grados y cuenta con un zoom óptico de 1.3x, lo que facilita adaptarlo a diferentes espacios y distancias, ya sea montado en el techo o sobre una mesa.

Gestión remota y eficiencia energética

Gracias a sus capacidades de control LAN (en red), los equipos de TI pueden monitorear y gestionar múltiples proyectores desde una sola ubicación. Esto resulta especialmente útil para instituciones educativas o corporaciones con varias salas o sedes. A esto se suma su diseño energéticamente eficiente, que ayuda a reducir el consumo eléctrico y, en consecuencia, el costo total de operación.

“A medida que las escuelas y las empresas abandonan los proyectores tradicionales basados en lámparas, necesitan soluciones que sean a la vez de alto rendimiento y un buen costo-beneficio”, afirmó Mia Shen, gerente senior de la línea de negocios de ViewSonic.

“El LS630W fue desarrollado para ofrecer brillo, larga duración y flexibilidad necesarios para las aulas y espacios corporativos modernos. Con bajo mantenimiento y fácil instalación, es la opción perfecta para instituciones que buscan actualizarse a una experiencia de proyección sin lámpara y al mismo tiempo garantizar un desempeño confiable para lecciones diarias, presentaciones corporativas o eventos a gran escala”, indicó el ejecutivo.

Resumen de características clave del proyector LS630W:

4,500 lúmenes ANSI, que aseguran imágenes claras incluso con luz ambiente.

Fuente de luz láser de fósforo, sin lámpara y con hasta 30,000 horas de vida útil, para años de funcionamiento sin mantenimiento.

Pantalla de hasta 300 pulgadas, perfecta para espacios grandes.

Instalación flexible: zoom óptico 1.3x, corrección trapezoidal horizontal y vertical, y proyección en 360 grados.

Control centralizado vía LAN, ideal para gestionar varios proyectores desde una misma plataforma.

Consumo energético eficiente, que ayuda a reducir el impacto ambiental y los costos operativos.

Día de la Tierra 2025: Impulsando un futuro sostenible

Douglas Wallace_District Sales Manager, Latin America and The Caribbean (Except Brazil)_1 (2)

Hoy 22 de abril celebramos el Día de la Tierra 2025, un evento creado para defender y apoyar la protección del medio ambiente. El mundo en el que vivimos hoy es prácticamente irreconocible desde el primer Día de la Tierra, celebrado en 1970. La industrialización y los avances tecnológicos han transformado la sociedad, y las tecnologías emergentes como la IA y los centros de datos a gran escala plantean nuevos desafíos, como el aumento del consumo energético y la huella de carbono.

A medida que crece la economía digital, también lo hacen las presiones ambientales, lo que hace más urgentes los esfuerzos de sostenibilidad. La misión original del Día de la Tierra de proteger nuestro planeta es más crucial que nunca, y nos insta a equilibrar la innovación con la responsabilidad ambiental para garantizar un futuro sostenible para todos.

¿Cómo Energizar el Planeta?

El tema del Día de la Tierra de este año es Nuestro Poder, Nuestro Planeta. La organización del Día de la Tierra hace un llamado a triplicar la generación global de energía renovable para 2030. El tema cobra sentido, especialmente en el contexto de 2025, cuando los centros de datos y tecnologías como la IA ejercen una enorme presión sobre las redes eléctricas y el medio ambiente. Por ejemplo, en América Latina, En América Latina, más de 650 millones de personas dependen de los centros de datos para almacenar todo, desde fotos y videos personales hasta correos electrónicos y transacciones comerciales. Los centros de datos de Latinoamérica consumen alrededor de 205 teravatios-hora de electricidad al año. Para ponerlo en perspectiva, esto equivale aproximadamente al consumo eléctrico combinado de México, Colombia, Chile, Perú, Uruguay, Costa Rica y Panamá.

Como todos sabemos, los combustibles fósiles son importantes emisores de gases de efecto invernadero y, por lo tanto, contribuyentes principales al calentamiento global. Según la Administración de Información Energética de EE. UU., en 2023, el petróleo representó aproximadamente el 38% del consumo energético estadounidense y fue responsable del 47% de las emisiones de CO2 relacionadas con la energía. El uso de fuentes de energía renovables es crucial para reducir las emisiones de gases de efecto invernadero, ya que generan electricidad sin producir dióxido de carbono, el principal gas de efecto invernadero.

Sin embargo, las energías renovables son solo una parte de la solución. Para 2030, se prevé que la demanda energética de los centros de datos en Latinoamérica se triplique, lo que podría representar el 43% de las necesidades de electricidad de los ciudadanos de muchos países. Este aumento exponencial requiere no solo fuentes de energía alternativas, como las renovables, sino también un cambio tecnológico fundamental para mitigar las necesidades energéticas de los centros de datos en la era moderna.

El dilema de los centros de datos

Los centros de datos funcionan las 24 horas del día y albergan tres tecnologías fundamentales: servidores para procesar datos, sistemas de almacenamiento para almacenarlos y redes de alta velocidad para transferirlos. Para mantener estos sistemas refrigerados y funcionales, también se necesitan sistemas adicionales de refrigeración y prevención de incendios que consumen mucha energía, llegando a consumir en ocasiones hasta la mitad de la energía utilizada por los propios equipos informáticos.

En la refrigeración, no solo se debe considerar la energía, sino también el agua. Muchos centros de datos utilizan refrigeración por evaporación, que consiste en rociar una fina capa de agua sobre paneles de tela. El calor ambiental es absorbido por el agua y, por lo tanto, enfría el aire de la zona. Es una idea inteligente, pero problemática dada la presión adicional que el cambio climático está ejerciendo sobre los recursos hídricos, especialmente en las zonas urbanas.

Los residuos electrónicos son otro problema ambiental en rápido crecimiento, al que los centros de datos contribuyen significativamente debido a los ciclos de renovación de hardware cada 3 a 5 años. Esta sustitución constante da lugar al descarte de cantidades masivas de equipos obsoletos, muchos de los cuales contienen sustancias nocivas como plomo y mercurio. A nivel mundial, solo alrededor del 12,5% de los residuos electrónicos se recicla, y el resto suele acabar en vertederos, lo que supone un gran problema.

¿Qué se puede hacer hoy?

Para mejorar la eficiencia energética en las redes y servidores de los centros de datos, es necesario centrarse en optimizar la relación entre hardware y software, la virtualización, la gestión inteligente de la energía, la refrigeración y el uso de fuentes de energía renovables. En cuanto al almacenamiento de datos, las estimaciones del sector sugieren que más del 80% del almacenamiento de datos vendido anualmente consiste en unidades de disco duro magnéticas (HDD). Estas unidades son reliquias del pasado y consumen grandes cantidades de energía que podrían emplearse mejor en otras áreas.

El almacenamiento flash, la misma tecnología utilizada en smartphones y portátiles, se destaca como una solución eficaz. Yendo un paso más allá de la tecnología flash de los smartphones, algunos proveedores están aprovechando la tecnología flash sin procesar para construir sus matrices flash, en lugar de depender de la compra de SSD convencionales, que se comunican con las unidades flash prácticamente de la misma forma que lo harían con un disco duro tradicional.

Esto maximiza las capacidades de la tecnología flash y proporciona un mejor rendimiento, un mejor aprovechamiento de la energía y una mayor eficiencia. Con este tipo de flash, las organizaciones pueden reducir sus requisitos administrativos, de espacio y de energía relacionados con el almacenamiento hasta en un 95 % en comparación con las soluciones HDD.

La sostenibilidad, crucial para el futuro digital

A medida que nos acercamos al Día de la Tierra, es evidente que los desafíos de sostenibilidad que enfrenta nuestro planeta son cada vez más acuciantes. Si bien las energías renovables son un componente fundamental de la solución, la adopción de las tecnologías más eficientes energéticamente también desempeña un papel importante. Al adoptar soluciones más sostenibles, podemos reducir significativamente el consumo de energía y contribuir a la preservación del medio ambiente. La misión del Día de la Tierra —proteger y sustentar el planeta— sigue siendo tan importante como siempre. Es hora de actuar: la sostenibilidad y el progreso pueden ir de la mano, siempre que se tomen las decisiones tecnológicas adecuadas hoy.

Sophos Threat Report 2025: cibercrimen afecta también a empresas más pequeñas

Sophos Annual Threat Report

Las pequeñas empresas son un blanco fácil para los ciberdelincuentes, según el informe Sophos Threat Report. Muchos de los problemas tratados en ese documento siguieron siendo un reto importante durante el año pasado, incluido el Ransomware, que continúa como una de las principales ciberamenazas para las pymes.

Los casos de Ransomware representaron el 70% de los incidentes analizados por el equipo de respuesta a incidentes de Sophos para clientes de pequeñas empresas en 2024 y más del 90% para organizaciones medianas (entre 500 y 5.000 empleados). El Ransomware y los intentos de robo de datos representaron casi el 30% de todos los incidentes supervisados por Sophos Managed Detection and Response (MDR) para este tipo de organizaciones.

Aunque los ataques en general han disminuido ligeramente de un año a otro, su costo ha aumentado, según el informe «The State of Ransomware» de Sophos. Aunque muchas de las amenazas observadas en 2024 son conocidas, otras centradas en los datos siguen creciendo y han surgido nuevas tácticas y prácticas:

Los dispositivos periféricos de red comprometidos, como firewalls, de redes privadas virtuales y otros dispositivos de acceso, representan aproximadamente una cuarta parte de las violaciones iniciales de las empresas. Este dato ha sido confirmado por la telemetría, pero es probable que el porcentaje sea mucho mayor.

Las plataformas de software como servicio, ampliamente adoptadas por las organizaciones durante la pandemia para apoyar el trabajo a distancia y mejorar la seguridad global, siguen siendo objeto de nuevos abusos para llevar a cabo ingeniería social, comprometer inicialmente los sistemas y desplegar malware.

El correo electrónico corporativo se está convirtiendo cada vez más en un canal utilizado para las intrusiones iniciales en incidentes de ciberseguridad y para una variedad de fines delictivos, especialmente para la distribución de malware, el robo de credenciales y la ingeniería social. Una de las causas de la violación del email corporativo es el Phishing, que permite a un adversario obtener tokens de autenticación multifactorial (MFA) para robar datos sensibles, lo que supone una amenaza en constante evolución.

Las aplicaciones fraudulentas que transmiten malware están relacionadas con estafas y técnicas de ingeniería social a través de SMS y aplicaciones de mensajería. Todas ellas representan una amenaza para las pequeñas y medianas empresas.

Otras amenazas menos técnicas que se aprovechan de la red siguen siendo un riesgo para las pymes.

El reporte de Sophos se centra en las tendencias observadas en los patrones de ataque de los ciberdelincuentes que afectan a las organizaciones pequeñas y medianas.

Kaspersky advierte que más de la mitad de las empresas en América Latina tienen dificultades para afrontar las ciberamenazas actuales

Ciberseguridad.

Un reciente informe de Kaspersky, titulado «Ciberdefensa e IA: ¿Estás listo para proteger tu organización”, reveló que el 64% de las empresas en América Latina reconocen tener dificultades en su capacidad para enfrentar las ciberamenazas actuales. Entre estas amenazas, destacan que las potenciadas por Inteligencia Artificial (IA) se han vuelto más personalizadas, escalables y con menos margen de error.

Uno de los hallazgos más relevantes del estudio, basado en las opiniones de profesionales de seguridad informática y ciberseguridad de Pequeñas y Medianas Empresas (PyMEs) y grandes corporaciones, es el impacto creciente de la IA en los ciberataques. El 18% de las empresas en la región afirma que la mayoría de los ataques que enfrentaron involucraron este tipo de tecnología, mientras que el 27% reporta más ataques con algún uso de IA que sin ella. Otro 27% considera que ambos tipos de ataques se presentaron en proporciones similares, reflejando una tendencia en la que la IA se convierte en una herramienta cada vez más utilizada por los ciberdelincuentes.

“Los ciberdelincuentes están aprovechando la IA para hacer sus ataques más escalables y difíciles de detectar. Aunque las tácticas tradicionales, como el phishing y el malware, siguen siendo las mismas, la IA ha elevado su efectividad al permitir que sean más personalizadas, precisas. Ahora, los atacantes pueden crear contenido falso con un nivel de realismo sin precedentes, imitando comunicaciones legítimas casi a la perfección y reduciendo las posibilidades de que la víctima sospeche de la trampa», afirmó María Isabel Manjarrez, investigadora de seguridad en el Equipo Global de Investigación y Análisis para América Latina en Kaspersky. Además, destacó que esta evolución supone un desafío creciente para la ciberseguridad, ya que las amenazas se están volviendo más rápidas y adaptables.

El auge de la Inteligencia Artificial no solo ha transformado la forma en que trabajamos, sino también la manera en que operan los ciberdelincuentes. Una de sus aplicaciones más preocupantes es la sofisticación del phishing y la ingeniería social, ya que gracias a la IA, los atacantes pueden generar mensajes para correos electrónicos, SMS y sitios web extremadamente convincentes, imitando con precisión el lenguaje, tono y diseño de comunicaciones genuinas. Además, las herramientas impulsadas por IA pueden realizar ataques en tiempo real, adaptándose a respuestas y comportamientos de las víctimas para maximizar su efectividad.

Por otro lado, la Inteligencia Artificial está optimizando la creación de código malicioso y la automatización de ataques. Gracias a modelos avanzados de generación de código, los ciberdelincuentes pueden desarrollar malware más sofisticado, capaz de evadir sistemas de seguridad y adaptarse a nuevas defensas con rapidez. Además, el uso de esta tecnología permite automatizar ataques a gran escala, identificando vulnerabilidades en tiempo récord y lanzando intrusiones dirigidas con una precisión sin precedentes. Esta combinación de velocidad y adaptabilidad supone un desafío creciente para las empresas, que deben reforzar sus estrategias de seguridad para anticiparse a las amenazas.

Para proteger a las empresas de estas ciberamenazas, los expertos de Kaspersky enfatizan la importancia de contar con tecnologías de protección avanzadas que sean capaces de identificar y mitigar ataques como el phishing y el malware. En este contexto, herramientas como el portafolio de Kaspersky Next ofrecen una protección integral, permitiendo a las organizaciones identificar vulnerabilidades emergentes y reforzar su postura de seguridad frente a un panorama digital en constante evolución.

En el caso de la ingeniería social, la educación y la capacidad de los usuarios para detectar posibles amenazas son fundamentales. Capacitar al equipo en la identificación de riesgos es clave, ya que el factor humano sigue siendo un eslabón crítico en la seguridad empresarial.

Liberación de valor: por qué los modelos privados de IA están liderando la transformación empresarial

_Q4A0240-AlexandreDuarte

Lidiar con la inteligencia artificial (IA) y extraer todo su potencial para optimizar las operaciones, reducir costos e impulsar los negocios ha sido un desafío diario para los líderes empresariales de todo el mundo. El avance acelerado de la tecnología requiere tranquilidad y una estrategia para su adopción, algo que casi nunca es posible, dada la presión del mercado para adoptar y transformar la IA en una importante ventaja competitiva. En esta nueva “fiebre del oro”, el activo más buscado ha sido la inteligencia artificial generativa (gen AI). Según datos de Gartner, para 2026, más de 80 % de las empresas habrá utilizado esta tecnología a través de interfaces de programación de aplicaciones (API) o incorporando modelos en aplicaciones.

A medida que aumenta la demanda de gen AI, también aumentan las preocupaciones en torno a la privacidad de los datos. Aunque los modelos de propósito general y la disponibilidad de modelos de lenguaje de código abierto (LLM) grandes y de alto rendimiento son opciones relevantes, las empresas necesitan soluciones de IA cada vez más específicas para mantener sus datos y los activos de sus clientes. Por tanto, existe un interés creciente en los modelos de dominio específico: para 2027, más de 50 % de los modelos de la IA generativa utilizada será específica de una industria o función empresarial, en comparación con aproximadamente el 1 % en 2023, según otra encuesta de Gartner.

Por ahora, una de las soluciones que las organizaciones han encontrado para satisfacer sus necesidades de eficiencia, agilidad, seguridad y precisión de la IA generativa es producir sus propios modelos de IA, personalizados según las necesidades de la organización y entrenados en función de los datos disponibles. La tendencia es tal que el informe El Estado de la IA a principios de 2024, desarrollado por la consultora McKinsey a principios de este año, señala que las plataformas privadas de IA son dos veces más efectivas para resolver cuellos de botella operativos y evitar problemas de ciberseguridad y transparencia de datos.

A pesar de que sean 1,5 veces más largos de implantación corporativa, según la valoración del informe, ofrecen el mejor coste-beneficio a medio y largo plazo, preparando equipos y creando protocolos técnicos que son absorbidos por la cultura corporativa en pocos meses. Según McKinsey, si bien los modelos entrenados con datos públicos siguen siendo la preferencia del mercado, el modelo privado ha demostrado ser el más resiliente y efectivo para resolver cuellos de botella en la producción, mejorar la retención de talento e incluso promover una planificación más asertiva en el uso de la tecnología.

Estrategias de implementación de modelos privados: RAG versus ajuste fino

Al crear soluciones de IA personalizadas, las organizaciones pueden elegir diferentes estrategias de implementación, incluidas RAG (Retrieval Augmented Generation) y ajuste fino. Ambas técnicas ayudan a cerrar la brecha entre el conocimiento general de los LLM y el conocimiento específico y actualizado que los hace útiles para las empresas.

La Retrieval Augmented Generation (RAG) proporciona más velocidad a un menor coste. En él, el modelo base se mantiene sin cambios; en cambio, cuenta con la asistencia de un motor de búsqueda lateral que recupera información específica de una base de datos privada (u otras fuentes internas), enriqueciendo las respuestas en tiempo real. Por tanto, no es necesario volver a entrenar el modelo cada vez que aparecen nuevos datos o actualizaciones, lo que reduce drásticamente el esfuerzo computacional y el coste de implementación y mantenimiento. Un ejemplo práctico sería el saldo de una cuenta corriente.

RAG también requiere menos trabajo técnico, lo que significa que los equipos de TI y los científicos de datos no necesitan crear tuberías de retreinamento complejos. Esto significa menos pasos de limpieza, preparación y validación de datos en comparación con el ajuste fino. Además, ofrece facilidad de actualización y escalabilidad. Como la información se almacena externamente, basta con actualizar o incluir nuevas fuentes de datos para que el modelo proporcione respuestas más actuales, lo que acelera la adopción de la IA en entornos dinámicos y de rápido crecimiento.

Ya el fine-tuning proporciona mayor precisión en casos de uso más específicos. Al reentrenar el modelo directamente con los datos de la organización, el propio LLM “aprende” las particularidades del negocio o dominio, pudiendo ofrecer respuestas altamente especializadas. Por otro lado, requiere una mayor demanda de recursos, requiriendo tiempo, potencia computacional y una cuidadosa curación de datos, además de procesos recurrentes de retreinamento siempre que surja la necesidad de actualizar o perfeccionar el modelo. Los costes de implementación y mantenimiento de esta estrategia también son mayores, ya que cada nueva versión del modelo implica repetir todo el proceso de formación, lo que encarece la escalabilidad y puede retrasar el ritmo de innovación.

Con base en este análisis, muchos expertos sostienen que RAG se convertirá en la opción preferida en el mercado para las empresas que valoran la velocidad, la reducción de costos y la facilidad de implementación. Según las proyecciones de IDC, publicadas por IBM, para fines de 2025, dos tercios de las empresas aprovecharán una combinación de IA de generación y RAG para impulsar el descubrimiento de conocimientos de autoservicio en dominios específicos, lo que aumentará la eficacia de las decisiones en un 50 %.

Al permitir la actualización de datos sin requerir constante retreinamentos, RAG satisface las demandas de las organizaciones que buscan flexibilidad y menos complejidad operativa.

Ventajas de los modelos privados

Adoptar un modelo privado proporciona beneficios que van mucho más allá de un mayor control y seguridad de los datos. Al desarrollar soluciones patentadas, las organizaciones también tienen una mayor flexibilidad para implementar requisitos específicos de gobernanza de datos, lo cual es esencial en industrias altamente reguladas como las finanzas y la atención médica. Esto garantiza la protección de la propiedad intelectual y el cumplimiento de las leyes de protección de datos, como la LGPD (Ley General de Protección de Datos), de una forma más precisa y robusta.

Con los modelos privados, la información crítica permanece bajo el dominio exclusivo de la organización, sin necesidad de compartirla con proveedores externos o plataformas públicas. Esta soberanía de los datos es fundamental para los sectores que valoran la territorialidad y el control total sobre el ciclo de vida de los datos, reduciendo los riesgos de exposición indebida y garantizando que se sigan estrictamente las políticas de gobernanza.

Además, al estar diseñados exclusivamente para satisfacer las demandas de cada empresa, estos modelos permiten una profunda personalización, permitiendo entrenarlos (o ajustarlos) con datos privados y parametrizados según los procesos internos y los requisitos del negocio. Con esto se resuelven problemas específicos de manera más asertiva, acelerando la adopción de la IA y generando valor más rápidamente.

La escalabilidad alineada con el negocio es otro beneficio importante. Cuando el sistema se construye internamente, los equipos de TI tienen más autonomía para ampliar o reducir recursos, probar nuevos algoritmos o integrar tecnologías complementarias, sin verse rehenes de las limitaciones impuestas por proveedores externos o soluciones genéricas. RAG, en particular, añade aún más flexibilidad a este proceso, haciendo que las actualizaciones y ampliaciones sean más rápidas y menos costosas.

Aunque la curva de adopción inicial puede ser mayor, el retorno de la inversión (ROI) tiende a ser mayor en el largo plazo, lo que proporciona una mejor asignación de la inversión. La personalización y el control interno de la tecnología le permiten optimizar los recursos y dirigir los esfuerzos sólo a funciones que aportan beneficios operativos reales. A esto se suma el fomento de la innovación interna continua. Al desarrollar modelos privados, se crea un ecosistema interno de investigación y desarrollo más vibrante. Los equipos de científicos de datos e ingenieros de software pueden explorar nuevas técnicas, lenguajes y marcos, ampliando la cultura de innovación y empoderando a los empleados en todos los niveles.

Soluciones seguras, flexibles y escalables

El auge de los modelos privados de IA pone de relieve una creciente búsqueda de soluciones que entregar tanto eficiencia como seguridad, así como flexibilidad y escalabilidad. Estos modelos se consolidan como la opción preferida de las empresas, ya sea para la creación de contenidos, la atención al cliente o para mejorar los procesos de análisis y toma de decisiones.

En este contexto, RAG destaca cada vez más, precisamente porque equilibra un alto rendimiento con menos complejidad y ofrece una vía rápida para la innovación continua. Sin embargo, independientemente de la técnica elegida -RAG o fine-tuning- asistimos, en tiempo real, a la evolución de la inteligencia artificial en el entorno corporativo. Y la adopción de una IA personalizada está demostrando ser no sólo una tendencia, sino un factor decisivo para las empresas que quieren liderar la revolución digital.

AMD presentó Amuse 3.0 y nuevos modelos de Stable Diffusion

AMD-Amuse 3.0

AMD presentó la nueva versión de su software, Amuse 3.0, que permite generar imágenes con Inteligencia Artificial (IA). Amuse 3.0 permite a los usuarios de AMD con hardware compatible ejecutar modelos de última generación como la familia Stable Diffusion 3.5 de Stability AI y los modelos FLUX.1 de Black Forest Labs. 

Los usuarios con sistemas de IA AMD Ryzen potenciados por una NPU AMD XDNA pueden usar la función Super Resolution AMD XDNA para crear imágenes con una calidad superlativa en cuestión de minutos.

Amuse 3.0.

La integración de modelos optimizados por AMD en Amuse permite a los usuarios obtener una velocidad de inferencia hasta 4,3 veces superior, dependiendo del hardware utilizado. Por ejemplo, en la AMD Radeon RX 9070 XT, los usuarios pueden esperar una generación de imágenes hasta 4,3 veces más rápida en Stable Diffusion 1.5 y un rendimiento 3,1 veces superior en SDXL 1.0. En la familia de modelos SD 3.5, los modelos optimizados por AMD ofrecen un rendimiento hasta 3,3 veces superior en SD 3.5 Large en la AMD Radeon RX 9070 XT.

Rendimiento de AMD Ramadeon 9070.

Por su parte, los usuarios con AMD Ryzen AI 9 HX 370 experimentarán aumentos de velocidad de entre el 5 % y el 50 %, según el modelo elegido. Además, podrán ejecutar modelos más grandes que nunca. Los entusiastas de la IA con procesadores AMD Ryzen AI MAX+ 395 experimentarán una aceleración de hasta 3,3 veces en la familia de modelos SD 3.5 y un rendimiento hasta un 70 % y un 40 % más rápido en Stable Diffusion 1.5 y SDXL 1.0, respectivamente.

Amuse 3.0: generación imágenes con IA..

Amuse 3.0 no se centra solo en el rendimiento. Esta nueva versión combina modelos de alta calidad basados ​​en SDXL Lightning con redes de control para ofrecer filtros de IA para imágenes impresionantes, que se ejecutan completamente de manera local. Además, la compatibilidad con Stable Diffusion ya está disponible oficialmente en Amuse 3.0, permitiendo a los usuarios generar videos con calidad de borrador entre dos y seis segundos, estos últimos con la combinación de fotogramas, a partir de texto. 

Oracle y Google Cloud anuncian un programa de socios y nuevas capacidades para Oracle Database

Oracle y Google Cloud.

Oracle y Google Cloud anunciaron planes para un programa de socios sin precedentes en la industria y la disponibilidad de Oracle Base Database Service en Oracle Database@Google Cloud, además de capacidades ampliadas y nuevas regiones.

El nuevo programa fue desarrollado para permitir que los socios de Oracle y Google Cloud ofrezcan Oracle Database@Google Cloud a sus clientes. Además, ahora ofrece soporte para Oracle Exadata X11M. Más allá de este anuncio, desde la compañía informaron que se prevén 11 nuevas regiones en los próximos 12 meses para ayudar a satisfacer la creciente demanda de los clientes de Oracle Database@Google Cloud.

“Seguimos ampliando nuestra asociación con Google Cloud para ayudar a satisfacer la creciente demanda de organizaciones en todo el mundo», dijo Karan Batta, Vicepresidente Sénior de Oracle Cloud Infrastructure. Además, comentó que el próximo programa de reventa para Oracle Database@Google Cloud no es sola una novedad para ellos, sino también para el mercado multicloud en general.

 

“La colaboración entre Oracle y Google Cloud en Oracle Database@Google Cloud siempre ha puesto las necesidades de nuestros clientes conjuntos en primer lugar”, dijo Andi Gutmans, VP y Gerente General de bases de datos de Google Cloud. “La disponibilidad de Oracle Base Database Service ayudará aún más a los clientes a acelerar de forma económica sus migraciones a la nube con los recursos técnicos que requieren las cargas de trabajo críticas. Además, ofrecer Oracle Database@Google Cloud a través de nuestro marketplace refleja nuestro compromiso con los socios y garantiza que sigamos ofreciendo máxima flexibilidad a nuestros clientes», agregó. 

Nuevo programa de socios Oracle Database@Google Cloud

Por primera vez, los socios de Google Cloud y Oracle tendrán la posibilidad de adquirir Oracle Database@Google Cloud a través del Google Cloud Marketplace mediante una oferta privada y revenderlo a sus clientes. Además, los socios tecnológicos pronto podrán incluirlo en sus ofertas de soluciones y servicios. Disponible en los próximos 12 meses, el nuevo programa de socios está previsto para estar abierto a quienes sean miembros tanto del programa Google Cloud Partner Advantage como de Oracle PartnerNetwork (OPN). 

“Como proveedor líder de tecnología, nuestros clientes confían en nosotros para ofrecer las mejores soluciones”, dijo Jack French, Director Sénior de Soluciones Globales en la Nube y Arquitectura de World Wide Technology.  Además, detalló que las innovaciones de Oracle con multicloud permiten que los clientes tengan más flexibilidad y opciones en la nube. 

Nuevas capacidades y regiones de Oracle Database@Google Cloud

Ambas compañías planean agregar mejoras de servicio y plataforma, así como nuevas regiones, para apoyar la creciente demanda de clientes por Oracle Database@Google Cloud:

  • Oracle Exadata Database Service en infraestructura dedicada ahora ofrece soporte para Oracle Exadata X11M para ayudar a ofrecer mejoras significativas de rendimiento en IA, análisis y procesamiento de transacciones en línea (OLTP) en comparación con la generación anterior. Los clientes también tienen la opción y flexibilidad de ejecutar Oracle Database en la arquitectura de Exadata X11M en entornos on-premises, nube híbrida, nube pública y multicloud. Además, para ayudar a los clientes a crear aislamiento de facturación y uso de recursos entre varios departamentos y equipos, la infraestructura de Exadata ahora puede implementarse en un proyecto diferente de Google Cloud con respecto a sus clústeres de máquinas virtuales asociadas.
  • Oracle Interconnect para Google Cloud ahora está disponible para clientes del gobierno de EE. UU. De esta manera, podrán configurar conectividad escalable y de gran ancho de banda entre Oracle U.S. Government Cloud East (Ashburn) y Google Cloud para la región del gobierno de EE. UU. en Virginia (Ashburn) en minutos. Además, los clientes pueden integrar aplicaciones gubernamentales implementadas en Google Cloud con Oracle Autonomous Database y Oracle Exadata Database Service en Oracle U.S. Government Cloud, así como aprovechar servicios exclusivos de cada proveedor hyperscaler.
  • Oracle Base Database Service estará disponible próximamente en vista previa limitada: para que los clientes cuenten con más opciones para sus cargas de trabajo, próximamente estará disponible Oracle Base Database Service en Oracle Database@Google Cloud. Este servicio ejecutará las ediciones Enterprise Edition y Standard Edition 2 de Oracle Database 19c y 23ai en máquinas virtuales. Además, incluirá gestión automatizada del ciclo de vida de la base de datos, reduciendo así las tareas de administración. También ofrecerá herramientas integradas de desarrollo low-code que permiten acelerar la creación de nuevas aplicaciones. 
  • Oracle Database@Google Cloud añade Melbourne, Sídney y Turín a la disponibilidad planificada: para ofrecer más opciones de implementación a los clientes, Oracle y Google Cloud están añadiendo Australia (Melbourne y Sídney), y Turín a su hoja de ruta de disponibilidad regional planificada. La disponibilidad regional prevista en los próximos 12 meses incluye Asia (Tokio, Osaka, Mumbai y Delhi), América del Norte (Montreal, Toronto e Iowa) y América del Sur (São Paulo). Además, para ayudar a satisfacer la creciente demanda de los clientes, se planea duplicar la capacidad de los centros de datos en regiones como Londres, Frankfurt y Ashburn en los próximos 12 meses. Las nuevas regiones y la capacidad ampliada se suman a las regiones actualmente disponibles de Google Cloud en EE. UU. (Ashburn y Salt Lake City), Londres y Frankfurt.

El auge e importancia del Edge Computing: mayor autonomía digital para las aplicaciones críticas

Edge Computing

La adopción de modelos híbridos que combinan la nube y el Edge Computing se está consolidando como un nuevo estándar para las organizaciones que buscan escalar digitalmente sin comprometer la estabilidad ni la eficiencia de sus operaciones. Esta arquitectura responde a una necesidad urgente: procesar datos en tiempo real y garantizar la continuidad operativa en entornos críticos. Al reducir la latencia y permitir mayor autonomía, esta tecnología habilita decisiones inmediatas en el mismo lugar donde ocurren los procesos, sin depender de una conexión constante a la nube.

Según proyecciones de Gartner para este año, el 75% de los datos empresariales se procesarán fuera del centro de datos tradicional o la nube, lo que refleja una transición hacia modelos híbridos más distribuidos y eficientes. Esta tendencia es particularmente relevante en industrias como la minería, energía, salud y retail, donde la inmediatez y la disponibilidad continua son elementos críticos.

Su importancia radica en que facilita la implementación de tecnologías como la inteligencia artificial y el mantenimiento predictivo, impactando positivamente en la productividad y eficiencia energética. Para ello, se basa en microcentros de datos distribuidos en la periferia de la red, cerca del lugar donde se generan los datos, reduciendo así la latencia y aumentando la autonomía operativa.

De hecho, un estudio de IDC (2024) estima que a nivel global el gasto en soluciones de Edge Computing alcanzará los 378 mil millones de dólares para 2028, impulsado por la necesidad de análisis en tiempo real, automatización avanzada y experiencias de usuario cada vez más exigentes. Este crecimiento anticipa una transformación profunda en la infraestructura digital, donde más cargas de trabajo serán gestionadas desde el borde, requiriendo nuevas capacidades de procesamiento local, inteligencia artificial y compatibilidad con GPU.

Al respecto, José Luis Leyva, especialista de Edge Computing y Alianzas en Suramérica para Schneider Electric, indicó que “esta tecnología permite reducir la latencia y garantizar una mayor autonomía operativa, lo que es clave para aplicaciones críticas que no pueden depender de una conexión constante a la nube. La cercanía entre los datos y su procesamiento mejora la eficiencia y habilita las decisiones en tiempo real”.

En respuesta a esta necesidad, Schneider Electric ha desarrollado soluciones modulares de Edge Computing que integran infraestructura física, monitoreo remoto, ciberseguridad y gestión energética inteligente. Estas plataformas están diseñadas para acompañar la transformación digital empresarial en entornos que exigen alta disponibilidad y rendimiento constante.
“Contar con una arquitectura robusta y segura permite a las organizaciones operar de forma más ágil y resiliente, especialmente en aplicaciones críticas que requieren máxima disponibilidad y velocidad en la toma de decisiones”, agrega el ejecutivo.

Data centers en la mira: Cómo asegurar su continuidad y blindarlos ante ataques y fallas críticas

Gabriel Estay enfasys-itseller-canal news (8)

Los data centers son la columna vertebral digital de las empresas modernas. Desde pequeñas startups hasta grandes corporaciones, estas infraestructuras almacenan y procesan información crítica, como datos financieros, registros de clientes y operaciones estratégicas. Sin embargo, su seguridad se enfrenta a desafíos constantes, desde ciberataques sofisticados hasta fallas en el suministro eléctrico y desastres naturales. Protegerlos es una prioridad estratégica para garantizar la continuidad del negocio y minimizar riesgos financieros.

Un data center seguro comienza con una infraestructura física robusta. La implementación de monitoreo en tiempo real, como EcoStruxure IT, permite detectar anomalías y responder rápidamente a cualquier amenaza operativa. Las interrupciones eléctricas también representan una de las principales amenazas para los data centers. Un fallo en el suministro puede derivar en la pérdida de datos, caída de servicios y altos costos de recuperación. En este contexto, contar con sistemas de alimentación ininterrumpida (UPS) es fundamental.

En esta línea, la UPS Galaxy VXL de Schneider Electric es un claro ejemplo de innovación en este ámbito. “Nuestra UPS es 100% modular, lo que permite agregar o retirar módulos de potencia sin interrumpir el funcionamiento del equipo, gracias a nuestra tecnología Live Swap”, destaca Gabriel Estay, director de Data Center y Secure Power para el Clúster Andino en Schneider Electric. Gracias a su escalabilidad, esta UPS permite a las empresas iniciar con una capacidad de 125 kW y expandirse hasta 1250 kW según la demanda. Además, su redundancia interna N+1 garantiza que, ante la falla de un módulo, otro lo reemplace de inmediato sin afectar la operación. “Esto no solo mejora la disponibilidad de energía, sino que asegura la continuidad del servicio sin interrupciones”, agrega Estay.

Prevención de ciberataques

Con el crecimiento de los ataques cibernéticos, la protección digital de los data centers es más crítica que nunca. Según IBM, el costo promedio de una violación de datos en 2023 fue de $4.45 millones. En América Latina, el Panorama de Amenazas 2024 de Kaspersky reveló que se bloquearon más de 1.1 millones de ataques de ransomware en un año.

Los cibercriminales pueden aprovechar cualquier punto vulnerable dentro de un data center, incluso elementos inesperados como plantas eléctricas o sensores IoT. “Hemos visto hackers provocar incendios en data centers atacando plantas eléctricas. Por eso, la seguridad debe integrarse desde el diseño de los equipos”, advierte el ejecutivo.
Para mitigar estos riesgos, los dispositivos deben contar con certificaciones de ciberseguridad y recibir actualizaciones periódicas. La UPS Galaxy VXL de Schneider Electric incorpora tarjetas de red con certificación de ciberseguridad y autenticación multifactor para evitar accesos no autorizados. “Un UPS sin protección es como dejar la puerta abierta a hackers. Los nuestros vienen blindados desde fábrica”, enfatiza Estay.

Una de las herramientas clave para reforzar esta seguridad es el Secure NMC System (SNS), una tarjeta de gestión de red segura que protege los dispositivos conectados de amenazas desconocidas, garantiza el cumplimiento normativo y refuerza la resistencia durante toda la vida útil del hardware. La NMC Galaxy VXL incluye una suscripción NMC segura de un año, activada por un experto de Schneider Electric al momento de la instalación. Este sistema permite una supervisión y gestión remota de la infraestructura de TI, lo que reduce significativamente el riesgo de fallos inesperados y tiempos de inactividad.