Las empresas aseguran que este compromiso ofrecerá transparencia sobre sus planes para desarrollar una IA que sea segura.
Las empresas aseguran que este compromiso ofrecerá transparencia sobre sus planes para desarrollar una IA que sea segura.
/ Pixabay
Agencia AFP

Más de una decena de las empresas punteras en (IA) asumieron nuevos compromisos sobre el desarrollo seguro de esta tecnología durante una reunión del sector este martes en Corea del Sur, anunció el gobierno británico en un comunicado.

MIRA: ChatGPT vs. Gemini: ¿quién está ganando la carrera de la inteligencia artificial?

El acuerdo alcanzado por 16 empresas tecnológicas -- incluyendo el fabricante de ChatGPT OpenAI, Google DeepMind y Anthropic -- se basa en un consenso para un desarrollo “seguro” de esta herramienta alcanzado en la primera cumbre sobre IA celebrada en Bletchley Park en el Reino Unido el año pasado.

“Este compromiso garantiza que las principales empresas de IA del mundo ofrecerán transparencia y rendirán cuentas sobre sus planes para desarrollar una IA que sea segura”, afirmó el primer ministro británico, Rishi Sunak, en un comunicado.

El acuerdo establece que las empresas de IA que no hayan publicado como determinan los riesgos que conlleva esta tecnología, van a publicar estas directivas, indicó el gobierno británico.

También se especificarán peligros catalogados como “intolerables” y los protocolos de las empresas de tecnología para asegurarse que no se cruce este umbral.

“En los casos más extremos, las empresas se comprometieron a ‘no desarrollar o a desplegar un modelo o un sistema’, si las políticas de mitigación no pueden mantener los riesgos en un nivel tolerable”, agregó el comunicado.

Este umbral será definido con claridad en la próxima cumbre sobre IA que se celebrará en Francia en 2025.

Otros gigantes del sector que se sumaron a este convenio son las empresas estadounidenses Microsoft, Amazon, IBM y la matriz de Instagram, Meta, la compañía francesa Mistral AI y la china Zhipu.ai

Contenido sugerido

Contenido GEC