El avance en el desarrollo de la inteligencia artificial (IA) logró la posibilidad de crear imágenes falsas indistinguibles de la realidad. La existencia de esta tecnología derivó en la reconstrucción de perfiles de personas ya existentes para recrear acciones que ellas nunca hicieron. Esto es lo que hoy se llama la tecnología deepfake.
El deepfake es una técnica con la que se consiguen imágenes o videos de objetos o rostros de personas aparentemente reales a través de algoritmos de aprendizaje de IA. Aunque las utilidades de esta tecnología puedan ser beneficiosas en el entretenimiento u otras áreas, también existen cibercriminales que han empezado a utilizarla para el robo de identidades.
Fue principalmente en la redes sociales en donde se dio a conocer la herramienta, bajo los populares memes. Se utilizaban escenas de películas famosas, y en el rostro de los actores se insertaba el de otras celebridades o políticos, que recreaban los diálogos y muecas de los personajes. Sin embargo, el uso de la IA escaló a más.
Cesár Beltrán, encargado del laboratorio de Inteligencia Artificial en la Pontificia Universidad Católica del Perú (PUCP), comenta en una entrevista con El Comercio que “las inteligencias artificiales tienen diferentes funciones que hacen realidad cosas que antes no pensábamos que podían existir. Esto puede verse desde el lado positivo en la innovación, pero también puede desencadenar nuevos peligros para los demás”.
MIRA TAMBIÉN: Una imagen creada con inteligencia artificial ganó una competencia de arte
¿Cómo se realiza el robo de identidad?
Recientemente, esta herramienta ha sido empleada por los ciberdelincuentes como una estrategia de robo de identidad, principalmente en el ámbito laboral. A través de esta tecnología, los cibercriminales suplantan la imagen de un trabajador para robar datos de una empresa.
El trabajo remoto ha permitido que estas técnicas de estafa sean más frecuentes. Debido a la virtualización de las actividades en algunas industrias, los cibercriminales tuvieron más ventajas al hacerse pasar por otra persona mediante la red.
“Estamos mucho más expuestos, ya que todas nuestras actividades las estamos haciendo de manera virtual. Entonces nuestra información se guarda en el internet, y cualquiera tiene acceso a ella. Eso ha sido el arma de doble filo”, añade Beltrán.
Al tener nuestra vida expuesta en las redes (en específico, en las redes sociales) esta inteligencia artificial se puede nutrir con nuestras fotos, videos e información pública, para recrear material audiovisual con nuestra identidad.
Bajo esa explicación, se pueden diferenciar dos tipos de ataques con deepfakes: los deepface (que se realizan a través de imágenes y videos) y los deepvoice (a través de audios y voces grabadas).
Ambos métodos se apoyan en el denominado aprendizaje profundo (deep learning), un campo concreto de la IA que se fundamenta en el funcionamiento del sistema neurológico humano, y en las bases de datos públicas globales, que contienen imágenes, videos y audios.
MIRA: Utilizan inteligencia artificial para “restaurar” el Ecce Homo y así es como luce
Para estas creaciones se utiliza un autocodificador, que crea una imagen con ciertos parámetros como la sonrisa, ceño fruncido, etc. También, si existe el material necesario para la IA, se puede añadir el audio.
¿Podemos evitar que roben nuestros datos?
A pesar de que los estafadores emplean técnicas cada vez más elaboradas para perpetrar estos ataques en compañías e instituciones, existen ciertas variables que permiten detectar posibles casos de deepfake.
Se recomienda llevar una monitorización diaria del contenido de nuestras redes sociales, para identificar la información vulnerable que tengamos expuesta al público.
En relación a las entrevistas de trabajo, es aconsejable que las empresas tengan en cuenta detalles como la postura de la persona o el movimiento del material de video que posean sobre los empleados. Otro aspecto a tener en cuenta durante estos encuentros virtuales es la calidad de los fotogramas y el modo en que se refleja la tonalidad de la piel.
El tono de la voz de una persona también puede ser un buen indicativo de que se está empleando deepfake, en el caso de que se conozca la voz del usuario previamente. También se debe comprobar que lo que el empleado responde es coherente con la conversación.
“Existen programas, softwares que se encargan de reconocer estas estafas. Nosotros, incluso, podemos detectarlas de forma sensorial. El problema es que es algo nuevo, por eso nos agarra con la guardia baja. La capacidad humana aún tiene la habilidad de superar las trampas de las IAs”, finaliza Beltrán.