OpenAI detiene operaciones encubiertas que utilizaban sus IA para influir en conflictos.
OpenAI detiene operaciones encubiertas que utilizaban sus IA para influir en conflictos.
/ Gabby Jones
Agencia Europa Press

OpenAI ha desmantelado cinco operaciones de influencia (OI) encubiertas, que utilizaban sus modelos de (IA) para respaldar actividades engañosas en Internet, relacionadas con la política y los conflictos actuales, como la invasión rusa de Ucrania o la guerra en Gaza, todo ello impulsado por actores de amenazas desde Rusia, Irán e Israel.

La compañía dirigida por Sam Altman ha compartido su compromiso de detectar e interrumpir operaciones de influencia encubiertas, con las que se intenta manipular la opinión pública o influir en resultados políticos, de cara a hacer cumplir sus políticas de prevención de abuso y mejorar la transparencia en torno al contenido generado por IA.

MIRA: La IA Copilot de Microsoft ahora está disponible en Telegram para conversaciones más inteligentes

En este sentido, la tecnológica ha señalado que en los últimos tres meses ha interrumpido cinco OI encubiertas, con las que actores de amenazas intentaban utilizar sus modelos de IA para llevar a cabo actividades engañosas en Internet. Estas operaciones se han llevado a cabo desde Rusia, Irán e Israel y tenían como objetivo manipular la opinión pública.

Tras la intercepción de estas operaciones y como resultado de sus servicios, OpenAI ha señalado que, durante este mes de mayo, las campañas “no parecen haber aumentado significativamente la participación”, así como tampoco se ha registrado un aumento en el alcance de su audiencia.

Tal y como ha explicado en un comunicado en su web, estas operaciones utilizaban los modelos de IA para distintos fines, como generar comentarios cortos y artículos largos en distintos idiomas, inventar nombres y biografías para las redes sociales, depurar código simple y traducir y corregir texto.

Asimismo, generaban contenido de diversos temas, relacionado con la invasión rusa de Ucrania, el conflicto en Gaza, las elecciones indias, la política en Europa y Estados Unidos e, incluso, las críticas por parte de gobiernos extranjeros y ciudadanos contrarios al Gobierno chino.

En concreto, una de las operaciones interceptadas ha sido la denominada Bad Grammar que, identificada con origen ruso, operaba principalmente en Telegram y tenía como objetivo usuarios en Ucrania, Moldavia, los Estados bálticos y Estados Unidos. Así, los actores maliciosos utilizaban la IA de OpenAI para depurar código y ejecutar un ‘bot’ de Telegram, todo ello con el objetivo de crear comentarios políticos breves en ruso e inglés, que luego se distribuían mediante la red social.

Otra de las OI encubiertas, también con origen en Rusia, es la ya conocida Doppelganger. En este caso, los actores maliciosos generaron comentarios en inglés, francés, alemán, italiano y polaco, que se publicaban en la red social X (antigua Twitter). Asimismo, también utilizaban los modelos de IA para traducir y editar artículos en inglés y francés publicados en sitios web vinculados a esta operación. Con ello, generaban titulares y convertían artículos de noticias en publicaciones de Facebook.

Lo mismo ocurre con la red china conocida como Spamouflage que, según ha matizado OpenAI, utilizó sus modelos para investigar la actividad de las redes sociales públicas, así como generar textos en idiomas como chino, inglés, japonés y coreano, que luego publicaban en X y Blogspot. En esta operación, los ciberdelincuentes también utilizaron la IA para depurar código, consiguiendo administrar bases de datos y sitios web.

Siguiendo esta línea, OpenAI también interceptó una OI encubierta del conocido grupo iraní Unión Internacional de Medios Virtuales (IUVM), que generó y tradujo artículos extensos, titulares y etiquetas de sitios web que, posteriormente, se publicaban en el sitio web vinculado a IUVM, iuvmpress[.]co.

Finalmente, la compañía tecnológica ha paralizado la actividad de la empresa comercial STOIC, afincada en Israel. Se trata de la operación a la que han denominado Zenón Cero, en la que se utilizaban los modelos de IA para generar artículos y comentarios que se publicaron en redes sociales como Instagram, Facebook, X y sitios web asociados con la empresa. No obstante, en el caso de este última, OpenAI ha puntualizado que ha logrado interrumpir la actividad de la operación, pero no la empresa STOIC.

MIRA: La Unión Europa crea una oficina para regular el uso de la inteligencia artificial

TENDENCIAS DE LOS ACTORES MALICIOSOS

OpenAI ha observado que los actores maliciosos utilizan IA para generar contenido textual e imágenes con menos errores que los producidos manualmente. Las operaciones interceptadas combinaban IA con textos escritos a mano o memes copiados. Además, se usa la IA para simular participación en redes sociales y mejorar la productividad, por ejemplo, resumiendo publicaciones.

MÉTODOS DE DEFENSA

OpenAI ha destacado que su IA también puede defenderse contra operaciones de influencia encubierta, negándose a generar contenido solicitado por actores maliciosos. Sus modelos poseen herramientas para detectar y analizar estas amenazas más eficazmente. En las recientes investigaciones, la detección se realizó en días en lugar de semanas o meses.

OpenAI también ha compartido información detallada con otros socios de la industria para aumentar la efectividad de estas interrupciones. La compañía continuará trabajando para identificar y mitigar este tipo de abusos a gran escala, utilizando IA generativa.

Contenido sugerido

Contenido GEC