Foto: IG @rosalia.vt
Foto: IG @rosalia.vt
Mireya Peredo

En 2023, se habla cada vez más de feminismo e igualdad de género, pero las mujeres seguimos siendo violentadas de maneras que ni sabíamos que eran posibles. ¿Cuál es el nuevo agresor? La . Esta vez, la mujer agredida ha sido nada más y nada menos que la estrella española, Rosalía. La cantante sufrió la alteración de fotos suyas para que pareciera que estaba desnuda. Las imágenes fueron distribuidas en redes sociales y la cantante salió a desmentirlas y por supuesto, a mostrar su total repudio ante el individuo detrás de este acto. Aunque el creador de estas imágenes ha señalado que las hizo con Photoshop, este hecho nos da la oportunidad de reflexionar acerca del peligro en el que se ha convertido la libre manipulación de la tecnología para las mujeres, sobre todo en un mundo en el que la inteligencia artificial va ganando cada vez más adeptos.

Lo vimos hace poco con el Papa. La autoridad de la iglesia católica fue otra víctima de la tecnología. Esta vez, a través de inteligenia artificial se creó una serie de imágenes donde se veía al Papa usando una casaca puffer de la firma Balenciaga. Aunque las imágenes no contenían ninguna agresión sexual, es válido incluir el ejemplo en este análisis por una simple razón: nos hicieron creer algo que nunca pasó. El Papa nunca utilizó esa casaca ni menos se tomó fotos con ellas. En realidad, se trataba de imágenes creadas por inteligencia artificial que parecían fotografías reales. Incluso medios de comunicación fueron engañados lanzando la noticia el “Papa utiliza Balenciaga”. Este hecho despierta una pregunta: si la inteligencia artificial puede hacer creernos cosas que nunca pasaron, ¿cuál es el límite? ¿existe alguna regulación?

La respuesta es que no. No hay regulación, pero si miles de peligros. Y aunque suponemos que esto significará un peligro en miles de ámbitos distintos para la vida diaria, nos preocupa uno en particular: el escenario de la mujeres.

¿Cómo la inteligencia artificial puede perjudicar a las mujeres?

Podemos llamarlo “fake porn”, “deep fakes” o edición de contenido audiovisual ajeno sin consentimiento. La verdad termina siendo una sola: la inteligencia artificial puede ser utilizada por personas sin escrúpulos para violentar intencionalmente a las mujeres a través de la alteración de fotografías, videos y todo tipo de contenido audiovisual. Como le pasó a Rosalía, por ejemplo.

Si hace un tiempo, todos celebrábamos el despegue de la tecnología y la llegada de herramientas automatizadas como el ChatGPT, hoy por hoy, somos las mujeres las que nos vemos obligadas a agregar un nuevo tipo de violencia a nuestra interminable lista. Si nos detenemos a analizar a lo que nos enfrentamos, nos podemos colocar en todo tipo de escenarios. Desde la manipulación de una fotografía nuestra hasta la producción y comercialización de videos sexuales con nuestro rostro como protagonista sin siquiera saberlo. Podemos estar en nuestras casas viviendo nuestras vidas y enterarnos de noticias así via redes sociales. Así de grave es la situación y no hay nada que pueda prevenirlo.

Lo que es peor aún, es que ya existen precedentes de estos hechos y a la fecha no se ha hecho absolutamente nada para evitar el resurgimiento de tan repugnantes acciones. Como ejemplo, tan solo en 2019, la aplicación Deepnude fue denunciada por hacer uso de la inteligencia artificial para crear imágenes falsas de mujeres y niñas desnudas a partir de fotos reales en las que aparecen completamente vestidas. Entonces, ¿como no temerle a una herramienta que es tan poderosa y a la vez carece de cualquier tipo de regulación? De por sí, las mujeres ya batallamos con múltiples barreras cómo para tener que angustiarnos por una más.

Tampoco hay que retroceder muchos años para confirmar que todas las mujeres estamos expuestas a ser sexualizadas, en especial las que tienen la fortuna (o desgracia) de ser figuras públicas. Pamela Anderson, Paris Hilton y Kim Kardashian son solo algunos de los rostros mundialmente conocidos que han experimentado, en carne propia, este inexplicable tipo de humillación a manos de hombres interesados en lucrar con el cuerpo femenino u obtener algún tipo de beneficio a su favor.

Y si los años 2000 estuvieron marcados por la frecuente publicación de videos privados de celebridades sin su autorización, tal vez estamos frente al periodo que será conocido en el futuro como la década de la manipulación de fotografías con fines sexuales. Así, la siempre preciada tecnología se expone a ser vista de reojo, a ser juzgada y a convertirse en una amenaza para la población femenina.

Foto: Twitter @rosalia
Foto: Twitter @rosalia

Contenido Sugerido

Contenido GEC