OpenAI cuenta con un equipo de Seguridad Infantil con el que gestiona los incidentes relacionados con el uso que hacen los usuarios menores de edad de las herramientas de Inteligencia Artificial (IA), de cara a garantizar que las tecnologías de la compañía no sean “mal utilizadas” de manera perjudicial para los niños.
La compañía dirigida por Sam Altman continúa implementando medidas para encontrar formas de asegurar que sus tecnologías no afectan de forma negativa a los usuarios, en este caso, en lo relacionado con cómo puede afectar a los menores.
MIRA: Apple desarrolla una nueva inteligencia artificial para editar imágenes usando lenguaje natural
En este sentido, OpenAI ha dado a conocer la existencia de un equipo de Seguridad Infantil que se dedica a ayudar a garantizar que las tecnologías de IA de la tecnológica “no sean mal utilizadas ni abusadas de manera perjudicial” para los usuarios menores de edad.
Así lo ha detallado la compañía estadounidense en una oferta de trabajo publicada en su web, en la que, en concreto, busca la contratación de un experto en la materia de políticas relacionadas con la seguridad infantil, para formar parte de este equipo.
En este marco, OpenAI ha explicado que el equipo en cuestión gestiona procesos, incidentes y revisiones para “proteger el ecosistema en línea” de la compañía. El equipo también maneja compromisos y relaciones externas “clave”, lo que se lleva a cabo a través de “estrechas asociaciones” con “colegas” de Asuntos Legales y Política de Plataforma e Investigaciones.
Entre otras cosas, el experto solicitado se encargará de revisar la aplicación de las políticas de OpenAI en lo relativo al contenido generado por IA en las herramientas de la compañía. Esto es, comprobar que no se publica contenido sensible o perjudicial en las respuestas de herramientas como ChatGPT.
Además, según ha explicado la tecnológica, también ofrecerá orientación sobre el cumplimiento de las políticas de contenido y trabajará en la “implementación y ampliación de procesos de revisión” relacionados con contenido confidencial.
MIRA: El contenido creado con ChatGPT y DALL-E 3 incluirá metadatos para que se pueda reconocer su origen
Es decir, el objetivo de este puesto es el de conseguir más eficacia en el proceso de identificar el contenido que viole las políticas de OpenAI generado por la IA y, para ello, deberá conseguir mejorar sus procesos de revisión y respuesta. Todo ello, a través de la colaboración con equipos de ingeniería, políticas e investigación.
La restricción del contenido no apto para usuarios menores de edad es una de las cuestiones en las que la compañía de IA está centrando sus esfuerzos actualmente, de cara a ofrecer un espacio seguro para los niños, así como cumplir las distintas leyes de privacidad y de protección a los menores.
Por ejemplo, una de las medidas implementadas ha sido la asociación con la organización Common Sense Media, que se dedica a revisar y calificar si los medios y tecnologías son aptos para los usuarios menores, anunciada el pasado mes de enero.
De esta forma, la compañía pretende facilitar medios para ayudar a los menores y a las familias a “aprovechar de forma segura el potencial de la IA” y educar sobre el uso seguro y responsable de ChatGPT, tal y como declara la organización en un comunicado en su web.
Actualmente, según indica OpenAI en su página de ayuda, las herramientas como ChatGPT no están destinadas a niños menores de 13 años. De igual forma, se requiere el consentimiento por parte de los padres o tutores para autorizar el uso de ChatGPT a usuarios menores de entre 13 y 18 años.
Siguiendo esta línea, la compañía recomienda “precaución” ante la exposición de contenido sensible a niños, incluso para aquellos que sí cumplen con los requisitos de edad de la tecnológica. De hecho, OpenAI puntualiza que, en contextos educativos, los niños menores de 13 años deben interaccionar con servicios como ChatGPT de forma supervisada por un adulto.
Contenido sugerido
Contenido GEC