Los desarrolladores que quieran que sus aplicaciones de inteligencia artificial (IA) generativa se distribuyan en Google Play Store deberán impedir la creación de contenidos no permitidos y facilitar herramientas de denuncia que ayuden a mejorar la herramienta.
MIRA: Exempleado de OpenAI alerta sobre los peligros de una IA más inteligente que los humanos
Google ha actualizado sus políticas para incluir una específica para las aplicaciones que usan IA generativa, dado que esta tecnología es cada vez más accesible y los desarrolladores pueden incluirla “para aumentar la interacción y mejorar la experiencia de usuario”.
La política se centra en concreto en las ‘apps’ que generan contenido, como los ‘chatbots’ o las herramientas que crean imágenes a partir de una descripción. A ellas se les exige que “prohíban o impidan la generación de contenido no permitido”, como pueden ser imágenes de desnudos falsos o con manipulaciones que busquen engañar.
Asimismo, deben incluir funciones internas que permitan a los usuarios denunciar o notificar cuando detecten que la ‘app’ se usa para generar contenido no permitido u ofensivo, que, según Google, los desarrolladores deberán usar para “mejorar el filtrado y la moderación del contenido de sus aplicaciones”.
TE PUEDE INTERESAR
- ¿Qué tan seguro es el wifi en los aeropuertos? Consejos para mantener tus datos seguros
- “Apaga tu celular una vez a la semana”: ¿por qué la Agencia de Seguridad Nacional de EE.UU lo recomienda?
- Assasin’s Creed Mirage y otros títulos de Ubisoft disponibles en iPhone y dispositivos de Apple
- Nvidia, Microsoft y OpenAI, investigadas en EEUU por posibles prácticas antimonopolio respecto a la IA
Contenido sugerido
Contenido GEC