Marlene Molero

Pornografía infantil. De eso habrían sido víctimas por lo menos entre 14 y 16 adolescentes alumnas del St. George’s College. Dos de sus compañeros de clases −de 15 años− sacaron fotos y videos de las redes sociales de las adolescentes, modificaron las imágenes utilizando inteligencia artificial (IA), las convirtieron en material pornográfico y las vendieron entre S/15 y S/30. El caso se hizo público cuando una de las escolares afectadas encontró en una computadora del colegio la conversación de otro alumno en la que se intercambiaban las imágenes, se hablaba de precios y de compradores. Los presuntos agresores están suspendidos de asistir al colegio mientras duren las investigaciones y se enfrentan a la imposición de medidas socioeducativas que pueden llegar hasta la privación de la libertad en un centro correccional. Si los presuntos agresores hubiesen sido mayores de edad, estarían frente a penas de prisión de hasta 15 años por el delito de pornografía infantil.

La alteración de imágenes para convertirlas en material pornográfico no es algo nuevo, pero ahora es más fácil y rápido de hacer con el acceso a nuevas tecnologías como es el caso de la IA. La tecnología hace también que cada vez sea más difícil reconocer que se trata de imágenes alteradas, basta recordar las imágenes que se hicieron virales hace unos meses del papa Francisco bailando. Programas como Midjourney o DALL-E están fácilmente al alcance de cualquiera y, si bien sus políticas no permiten su uso para crear este tipo de contenido, lo cierto es que la flexibilidad del lenguaje hace posible darle las indicaciones suficientes al sistema para que adultere el cuerpo de una persona, sexualizándolo.

La sexualización del cuerpo de las mujeres está en el centro de todo esto y esa es una historia conocida. El problema con usar la tecnología para reducir a las mujeres únicamente a su sexualidad no es diferente de lo que siempre ha sido, pero ahora hay un velo aún más siniestro porque las imágenes generadas por la IA pasan totalmente por alto cualquier tema relacionado con el consentimiento. Es muy fácil acceder a una foto en Internet y redes sociales y manipularla para crear contenido ajeno a nuestra voluntad, solo que en el caso de las mujeres la alteración suele estar asociada a la creación de material pornográfico, y en el caso específico del St. George’s College, a pornografía infantil. Es la objetivización sexual en su forma más pura.

Lo anterior lleva a reenfocar el problema. No se trata de los riesgos de la tecnología, y más concretamente de la IA, sino de ese afán de consumir, desde edades cada vez más tempranas, el cuerpo de las mujeres. La pregunta entonces es qué está haciéndose desde la educación básica para prevenir esto. Y la respuesta es acá lamentable, porque si algo hicimos en este país es eliminar del currículo escolar el único módulo de información que pudo hablar de esto: la educación sexual integral. En un mundo de mayor exposición, simplemente bajamos la guardia.

Lo que ha pasado en el caso del St. George’s College es grave. Es pornografía infantil. Si reconocemos que está mal pero que no es para tanto, que es una “palomillada”, lo que estamos diciendo es que en algunos casos la pornografía infantil no es tan grave. Y yo, por lo menos, creo que pensar así es desproteger a las víctimas y, en buena cuenta, a cualquiera expuesta a que esto le pase. Y considerar que estos dos adolescentes de 15 años no tenían conciencia de lo que estaban haciendo solo nos deja peor como sociedad. ¿Qué tanto hemos podido fallar si no hemos logrado enseñarles a estos chicos que crear imágenes pornográficas no autorizadas de sus compañeras de clase y venderlas está mal?

Haber eliminado la educación sexual integral como componente obligatorio del currículo educativo equivale a fallarles como sociedad a nuestras niñas y adolescentes. Y equivale también fallarles a ellos, a quienes al parecer seguimos sin poder enseñarles que objetivizar y sexualizar a las mujeres y sus cuerpos está mal.

Marlene Molero es socia fundadora de Gender Lab