Conductoras de televisión denuncian que sus rostros y voces están siendo manipulados para promocionar productos sin su consentimiento. Esto es posible porque los estafadores utilizan recursos de la inteligencia artificial (IA). Las mujeres afectadas han difundido una advertencia a los usuarios para que no se dejen engañar, ya que usualmente caen por la confianza que les genera ver rostros conocidos.
María de Jesús González, conductora de TVPerú, señaló a El Comercio que está siendo víctima de la clonación de su rostro. “Está circulando en redes sociales un video falso donde presuntamente yo estoy animando a la gente a que haga inversiones por medio de una plataforma. Es terrible, lo más preocupante es que sale perfectamente la imagen del canal donde trabajo”, dijo.
Precisó que ha puesto una denuncia ante la Dirección de Investigación Criminal (Dirincri) y está siendo atendida por el Departamento de Delitos Informáticos.
Este es el video falso que está circulando.
Más víctimas
Otra de las víctimas fue la también conductora de TVPerú y columnista de El Comercio, Maite Vizcarra, quien advirtió que su imagen está siendo utilizada en publicidad engañosa. Se trata de la técnica del deepfake, es decir, un video o una voz que se hace con IA. “Está circulando un video donde supuestamente yo promuevo un negocio vinculado a la compra de criptomonedas, e indico que, si usted con poco dinero entra a un enlace, va a hacerse millonario. Esto obviamente es una estafa”, dijo.
“El audio que se escucha, aunque es muy parecido a mi tono de voz, no es el mío. Es un fraude. Detrás de estas emulaciones de voz y video hay aplicaciones de IA”, añadió.
Algo similar le sucedió a la reconocida periodista Mávila Huertas. Ella denunció que una empresa está utilizando su imagen y voz con la ayuda de IA para promocionar y vender un producto que supuestamente cura la artritis, sin su autorización.
Según reveló, el sitio web “Tus Articulaciones Saludables” crea videos falsos a partir de imágenes reales, para aparentar que la conductora recomienda una crema que promete eliminar las deformaciones óseas causadas por la artritis. “Hay mucha gente que puede comprar el producto pensando que lo estoy recomendando yo, y no es así. Así como lo han hecho conmigo, estos ciberdelincuentes lo pueden hacer con cualquiera”, acotó.
LEE TAMBIÉN: Clonan voces de personas con IA para estafar o fingir secuestros: al menos 55 casos en Perú
Huertas anunció que presentará una denuncia ante la Dirincri para que realicen las investigaciones correspondientes.
Latina Noticias también informó que se viene difundiendo un video editado con IA donde una periodista de dicho canal promueve remedios para dolores articulares. “Exhortamos a nuestros usuarios a no caer en Fake News”, comunicó.
¿Cómo funciona esta modalidad?
Rodrigo Ochoa, líder de automatización e inteligencia artificial en Moventi, señaló a El Comercio que el deepfake funciona de la misma manera tanto para audio como para video. Se utilizan algoritmos que, con la ayuda de una base audiovisual, son entrenados para almacenar grandes cantidades de archivos, en este caso, de contenido audiovisual que servirá para hacer el video falso.
“Se usan de dos a tres videos para que la IA sea capaz de gesticular e imitar la voz de las personas, también es un programa capaz de sincronizar los labios con las palabras que ‘se están diciendo’. Siempre tiene que haber una base de datos de donde se obtenga la información, sea una persona mediática (por medio de su trabajo) o alguien común y corriente (por medio de sus redes sociales)”, dijo.
LEE TAMBIÉN: De falsas notificaciones judiciales a apoderarse de tu teclado: las más sofisticadas modalidades de phishing
Erick Iriarte, abogado experto en derecho digital y nuevas tecnologías, explicó a este Diario que el proceso implica tener videos y audios de una determinada persona. De ese modo, se utilizan dichas imágenes con relación a un texto. “Por ejemplo, yo tengo un video tuyo, luego le pido a un programa que analice cómo mueves el rostro con palabras específicas, de tal manera que parezca que realmente tú estuvieras hablando”, precisó.
Mecanismos de prevención
Rodrigo Ochoa considera que, si se trata de un ciudadano común, este tiene que evitar exponer muchos aspectos de su vida. Por ejemplo, no debe tener abiertas sus redes para todas las personas, sobre todo si no las conoce, ya que posibles estafadores podrían hacer uso de ese material.
Por otro lado, para las personas que son mediáticas, mencionó que es más complicado. “Lo que pueden hacer es mantener un registro de sus publicaciones, como una forma de prevención que ayudará a identificar posibles videos que uno no haya hecho”, adicionó.
¿Cómo reconocer este tipo de videos?
Rodrigo Ochoa añadió que la población debe observar la calidad de los videos en cuestión. “La mayoría de estos videos muestra algún signo de edición, no son perfectos. En algún momento vas a ver que los labios no sincronizan con el audio, también se puede percibir que una mueca no es acorde a la persona, o que la voz es robotizada. Siempre habrá algo que no cuadra”, comentó.
LEE TAMBIÉN: Empresa de compra y venta de acciones falsas bate récord al estafar con US$19 mil a nueva víctima
Agregó que las personas deben revisar si la fuente del video es confiable. “Si se trata de un mensaje reenviado innumerables veces, es algo sospechoso. Hay que ver siempre los canales oficiales”, dijo.
Erick Iriarte acotó que otra de las formas para identificar estos videos es que no suelen ser muy dinámicos. “Pueden parecer fotos animadas y están lejos de ser videos continuos”, mencionó.
En relación a si es posible hallar a los responsables, Iriarte señaló que las autoridades pueden valerse de un tratado internacional: el Convenio sobre Delitos Cibernéticos, o popularmente llamado Convenio de Budapest. “Debemos participar de los convenios y hacer uso de las herramientas informáticas forenses”, dijo.
Alcances legales
Alexandra Vargas, abogada penalista del Estudio Linares, precisó que se han cometido tres delitos: suplantación de identidad, regulado en el artículo 9 de la Ley de Delitos Informáticos; falsedad genérica, tipificado en el artículo 438 del Código Penal; y difamación, ubicado en el artículo 132 del Código Penal. Las sanciones son pena privativa de la libertad de 3 a 5 años, de 2 a 4 años, y no mayor de 2 años con 30 a 120 días multa, respectivamente.
“En el caso del delito de suplantación de identidad se considerará como un agravante que se cometa el delito con el fin de obtener un beneficio económico, en cuyo caso la pena se podrá aumentar hasta un tercio por encima del máximo legal previsto, es decir aproximadamente 6 años y medio”, agregó la experta.
Canales para pedir ayuda
Rodrigo Ochoa recomendó a las personas mediáticas y a los ciudadanos en general publicar comunicados en sus redes sociales aclarando la situación. Por otro lado, Erick Iriarte exhortó a la población a acudir a la División de Investigación de Delitos de Alta Tecnología (Divindat) y la Fiscalía de Ciberdelincuencia.
El Ministerio Público sostuvo a El Comercio que, por la complejidad técnica que demanda su investigación, los fiscales revisan estos casos de manera individual. “Al ser delitos de estafas que utilizan tecnologías de la información, las denuncias son atendidas por las fiscalías penales de turno, pudiendo recurrir a la Unidad Fiscal Especializada en Ciberdelincuencia para solicitar un acompañamiento técnico y así acceder al tratamiento de la evidencia digital”, indicaron.