De Blade Runner a la realidad: qué separa la identidad real de la digital

Por Federico Aragona, Director de ventas de MCA de F5 LATAM.

En la película de 1982, Blade Runner, un policía del año 2019 está en la misión de perseguir y eliminar a los replicantes. Es decir, humanos artificiales creados por biotecnología que carecen de empatía y se dedican a trabajos peligrosos. Dirigida por Ridley Scott y basada en la novela de Philip K Dick, Sueñan los Androides con Ovejas Electrónicas, el film pone en el centro de su trama el problema de la identidad. ¿Quién puede ser una persona y cómo comprobar si lo es?

Estamos en el 2025, seis años después de los eventos de Blade Runner, y al igual que el personaje de Harrison Ford también nos enfrentamos al problema de la identidad digital por el avance de la tecnología. No es una tendencia nueva, pero sí lo es la perspectiva desde la cual se la está mirando.

Hasta hace unos años, cuando pensábamos en el concepto de Identidad Digital nos referíamos a credenciales (usuarios y contraseñas). Ahora, con el surgimiento de la Inteligencia Artificial, se complejiza aún más el asunto. Es difícil, tecnológicamente hablando, reconocer a las personas por quienes dicen ser. ¿Se trata de esa u otra persona? ¿Es una persona o es Inteligencia Artificial?

La IA desafía el concepto de unicidad visual, es decir, hay imágenes falsas que pueden ser reales. Por otro lado, es una tecnología que puede usarse para alterar la confiabilidad de datos estáticos como nombre, dirección o fecha de nacimiento, fácilmente generados por algoritmos.

Herramientas como Generative Adversarial Networks (GANs) crean rostros humanos que no pertenecen a ninguna persona real. Estos modelos combinan bases de datos existentes y generan imágenes tan auténticas que incluso engañan a sistemas básicos de verificación. También están los bots que desarrollan perfiles sociales automáticos con datos verosímiles, diseñados para realizar fraudes o suplantaciones de identidad. Este tipo de IA es cada vez más accesible, lo que multiplica su uso en actividades delictivas.

A su vez, los métodos “tradicionales” -como las contraseñas o las preguntas de seguridad- pierden su eficacia frente a ataques que combinan ingeniería social y aprendizaje automático. Para confrontarlos, los sistemas podrían apoyarse en dinámicas como la biometría, los patrones de comportamiento y la autenticación multifactorial.

Pero más allá de esta crisis, no estamos a la deriva. Desde que existen los documentos y otros métodos para validar a una persona que abundan las falsificaciones, más o menos burdas. Antes, para fraguar una identidad, se cambiaban los datos del DNI, el farsante se ponía un bigote, se teñía el pelo o se ponía lentes con un color de ojos diferente. A la par también surgieron mecanismos que permitían resolver si una persona era realmente quien decía ser. Todo esto ya avanzó tanto que se trata de cruces biométricos.

Si bien la identidad digital está más avanzada en cuestiones vinculadas al comercio electrónico, la industria financiera y la bancaria, en el marco organizacional es fundamental contar con herramientas que permitan agilizar la verificación. Pensemos en los organismos públicos y entidades privadas que hoy manejan datos de gran sensibilidad y acceden a cuentas e información personal, que –en un mundo de aplicaciones- implementan soluciones para distinguir digitalmente a una persona. Esto incluye el uso de autenticación biométrica y otros métodos de identidad digital para garantizar la seguridad.

A lo largo de la historia, surgieron herramientas que fueron demonizadas porque se creía que atentaban contra nuestro propio trabajo. Pero al demostrar su capacidad para colaborar con las tareas, no tuvieron reemplazo. Cuando se inventó la calculadora se creía que era un “mata cerebros” porque la matemática es para pensar y la calculadora resolvía en un instante la ecuación. Hoy se puede usar en todos los niveles escolares e incluso en universidades demostrando que lo que prima es el desarrollo y la capacidad de resolución, no el cálculo en sí. Con la computadora pasó lo mismo, se creía que le iba a sacar el trabajo a muchas personas.

Hay una teoría que barajan los fans de Blade Runner: el policía de Harrison Ford era en realidad un replicante y no una persona, encomendado a cazar a los suyos propios. De la misma manera, la IA puede utilizarse para solucionar los problemas que ella misma causa sobre los seres humanos.

Hoy se utiliza IA avanzada y modelos de lenguaje (LLM) para detectar y bloquear bots sofisticados y fraudes generados por IA en tiempo real. A su vez, soluciones tecnológicas, que combinan análisis de comportamiento y machine learning permiten identificar patrones anómalos que escapan a herramientas tradicionales.

Cada vez que hubo una innovación tecnológica de gran impacto, se imaginó que la humanidad iba a perder el control. Y no pasó, sólo fue evolucionando. En ese sentido, es normal que aún se mantenga el cuestionamiento sobre la utilidad de las herramientas que se apoyan en la IA generativa y que se generen debates sobre la autenticidad de sus resultados obtenidos. Tiempo y confianza son los ingredientes esenciales para que podamos incorporarlas. Ya estamos en ese camino.

banner-web