Hace más de tres décadas, Red Hat vio el potencial de cómo el desarrollo y las licencias de código abierto podían crear un software superior que impulse la innovación en TI.
Treinta millones de líneas de código más tarde, Linux evolucionó no solo hasta convertirse en el software open source más exitoso hasta la fecha. Nuestro compromiso con los principios open source siguen vigentes, no solo en nuestro modelo de negocio, sino también en nuestra cultura corporativa. Si se hace en la forma correcta, creemos que estos conceptos pueden tener el mismo impacto en la Inteligencia Artificial (IA). No obstante, existen opiniones dispares respecto de lo que sería “la forma correcta” en el universo tecnológico.
No se puede considerar a la IA, en especial a los modelos de lenguaje de gran tamaño (LLM) que impulsan la GenAI, del mismo modo que al software open source.
A diferencia del software, los modelos de IA consisten principalmente en pesos del modelo, que son parámetros numéricos que determinan cómo se procesan los datos de entrada, así como las conexiones que establece entre varios puntos de datos.
Los pesos del modelo entrenado son el resultado de un proceso de entrenamiento extenso que involucra grandes cantidades de datos de entrenamiento que se preparan, mezclan y procesan con sumo cuidado.
La mayoría de las mejoras y optimizaciones de los modelos de IA que hoy se llevan a cabo en la comunidad no involucran el acceso a los datos de entrenamiento originales ni su manipulación. En cambio, son el resultado de modificaciones de los pesos del modelo o de un proceso de ajuste fino que también puede servir para ajustar el rendimiento del modelo. Tener la libertad de realizar esas mejoras exige que los pesos se publiquen con todos los permisos que los usuarios reciben bajo las licencias de código abierto.
IA de código abierto
Red Hat considera que el umbral mínimo de este tipo de Inteligencia Artificial son los pesos de los modelos con licencia open source combinados con componentes de software open source. Sin embargo, este es un punto de partida, no el destino final.
Alentamos a la comunidad, a las autoridades regulatorias y al sector a seguir luchando por lograr una mayor transparencia y adecuación a los principios de desarrollo open source a la hora de entrenar y ajustar los modelos de IA.
Esta es la visión de Red Hat sobre cómo nosotros, como ecosistema de software open source, podemos trabajar con la IA de código abierto de manera concreta. No pretendemos brindar una definición formal, como lo hace la Open Source Initiative (OSI) con su Definición de la IA de código abierto (OSAID).
La IA de código abierto debe ser factible y accesible para el mayor conjunto de comunidades, organizaciones y proveedores.
Este punto de vista queda materializado a través de nuestro trabajo en las comunidades open source, puesto de relieve por el proyecto InstructLab liderado por Red Hat y nuestra colaboración con IBM Research en relación con la familia de modelos Granite con licencia de código abierto.
Las repercusiones de los recientes anuncios de DeepSeek muestran cómo la innovación open source puede afectar a la IA, a nivel de modelo y más allá. El enfoque de esta plataforma genera evidentes preocupaciones, como, por ejemplo, que la licencia del modelo no aclara cómo se produjo, lo que refuerza aún más la necesidad de transparencia. Dicho esto, esta disrupción confirma nuestra visión del futuro de la IA: un futuro abierto, centrado en modelos abiertos más pequeños y optimizados que se puedan personalizar según el uso específico de los datos que haga la empresa en cualquier lugar de la nube híbrida.
Más allá de los modelos
La tecnología y los principios de desarrollo open source constituyen la esencia de nuestras ofertas de IA, al igual que de nuestro portafolio de Inteligencia Artificial. Red Hat OpenShift AI toma sus raíces de Kubernetes, KubeFlow y contenedores compatibles con la Open Container Initiative (OCI), así como de otras tecnologías open source nativas de la nube. Red Hat Enterprise Linux AI incorpora la familia de LLM Granite con licencia de código abierto de IBM y el proyecto open source InstructLab.
Además, participamos activamente en una cantidad de proyectos y comunidades de desarrollo cada vez mayor y hemos iniciado muchos más proyectos por nuestra cuenta, que incluyen los siguientes, entre otros:
- RamaLama: un proyecto open source que tiene como objetivo hacer que la gestión y el servicio local de modelos de IA sean mucho menos problemáticos y complejos;
- TrustyAI: un conjunto de herramientas open source para crear flujos de trabajo de IA más responsables;
- Climatik: un proyecto dedicado a ayudar a que la IA sea más sostenible en lo que respecta al consumo de energía;
- Podman AI Lab: un kit de herramientas de desarrollo enfocado en facilitar la experimentación con LLM open source.
Nuestro reciente anuncio relacionado con Neural Magic promueve aún más nuestra visión de IA, porque permite a las organizaciones alinear modelos de IA más pequeños y optimizados —que incluyen modelos con licencia open source— con sus datos, donde sea que se encuentren en la nube híbrida. Las organizaciones de TI pueden usar el servidor de inferencia de los vLLM para impulsar las decisiones y los resultados de estos modelos y ayudar así a construir una IA afianzada en tecnologías transparentes y compatibles.
Para Red Hat, la IA de código abierto vive y respira en la nube híbrida. La nube híbrida proporciona la flexibilidad tan requerida para elegir el mejor entorno para cada carga de trabajo de Inteligencia Artificial y optimiza el rendimiento, los costos, la escalabilidad y los requisitos de seguridad.
Vislumbramos un futuro que engloba el trabajo transparente con los modelos y su entrenamiento. Seguiremos apoyando y promoviendo aquellas iniciativas que extiendan los límites de lo que significa democratizar y abrir el mundo de la IA.