OpenAI, Google, Microsoft y Anthropic unen fuerzas para autorregular la IA.
OpenAI, Google, Microsoft y Anthropic unen fuerzas para autorregular la IA.
/ Pixabay
Agencia Europa Press

OpenAI, Anthropic, Google y Microsoft se han unido para asegurar el desarrollo seguro y responsable de los denominados modelos de (IA) de frontera, para minimizar los potenciales riesgos que puedan suponer para el individuo y la sociedad.

Frontier Model Forum nace con el objetivo de promover el desarrollo responsable de los modelos de frontera, los más sofisticados, que describen como aquellos “modelos de aprendizaje automático a gran escala que superan las capacidades actualmente presentes en los modelos existentes más avanzados y pueden realizar una amplia variedad de tareas”.

MIRA: La app de ChatGPT para Android ya está disponible: ¿cómo descargarla?

Detrás de esta organización se encuentran las empresas más destacadas del panorama actual de la inteligencia artificial avanzada, OpenAI, Anthropic, Google y Microsoft. Las cuatro se comprometen a colaborar en el desarrollo seguro de estos modelos.

Para ello, han establecido tres puntos sobre los que versará su actuación: avanzar en la investigación de la seguridad de la IA para minimizar sus potenciales riesgos, identificar las mejoras prácticas de seguridad para los modelos de frontera, y compartir sus conocimientos con los legisladores, los académicos y la sociedad civil.

MIRA: El chatbot con IA de Microsoft ya se puede usar desde Google Chrome y Safari, pero con restricciones

También se han propuesto apoyar el desarrollo de aplicaciones de esta tecnología que ayuden a abordar los mayores desafíos de la sociedad, como son la mitigación y adaptación al cambio climático, la detección y prevención tempranas del cáncer y la lucha contra las ciberamenazas.

Establecerán, además, en los próximos meses un Consejo asesor que ayudará a guiar la estrategia y prioridades de los integrantes de esta organización profesional, como informan en una nota de prensa conjunta.

Contenido sugerido

Contenido GEC