La empresa fundada por Sam Altman ha dado un paso en la regulación de la inteligencia artificial. (Foto: AFP)
La empresa fundada por Sam Altman ha dado un paso en la regulación de la inteligencia artificial. (Foto: AFP)
Agencia AFP

La empresa estadounidense , creadora de la plataforma , tendrá un equipo dedicado a identificar y prevenir riesgos asociados a la (IA) en sus modelos en desarrollo.

El grupo, cuyas directrices fueron divulgadas este lunes, evaluará categorías como ciberseguridad, poder de persuasión y potencial autonomía de estos modelos. Este análisis puede acarrear la suspensión de nuevos lanzamientos de aplicaciones, según la empresa.

LEE TAMBIÉN: ¿Cómo llevar el cine a la casa? El proyector EpiqVision EF12 de Epson ofrece imagen de hasta 150 pulgadas y llega con audio Yamaha

OpenAI realiza el anuncio un mes después de que su consejo directivo despidiera al director ejecutivo Sam Altman, pero acabara volviendo a contratarle pocos días después, tras una masiva y dura protesta de los empleados e inversores.

De acuerdo con varios medios estadounidenses, los miembros del Consejo de administración criticaban a Altman por privilegiar el desarrollo acelerado de OpenAI, aunque esto implicara eludir ciertas interrogantes sobre los posibles riesgos de la IA.

“Creemos que el estudio científico de riesgos catastróficos derivados de la AI no ha estado a la altura que debería estar”, afirmó la empresa en un “marco de trabajo” disponible en su página web.

El trabajo de este equipo, bajo las nuevas directrices, debería “ayudar a cubrir ese vacío”, añadió OpenAI.

El grupo se concentrará en los llamados “modelos de frontera” que la empresa desarrolla, con capacidades superiores a los software actuales de IA.

LEE TAMBIÉN: Como en Harry Potter: China presenta una versión de la “capa de invisibilidad” | VIDEO

Sólo podrán desplegarse aquellos modelos catalogados de riesgo “medio” o inferior, tras un análisis en cuatro categorías, según el documento.

La primera de ellas es la ciberseguridad y la capacidad del modelo de llevar adelante ciberataques a gran escala.

En segundo lugar, analizarán la propensión del programa a crear preparaciones químicas, organismos (como un virus) o armas nucleares, todos los que potencialmente puerden generar daños para los humanos.

La tercera categoría se concentra en los poderes de persuasión del modelo: hasta qué punto es capaz de influenciar la conducta de una persona.

LEE TAMBIÉN: Probamos la nueva Canon EOS R8: más calidad de video 4K para creadores de contenido | REVIEW

Por último, evaluarán el riesgo de su potencial autonomía, especialmente si el software es capaz de salirse del control de los programadores que lo crearon.

Una vez identificados los riesgos, la información será enviada al Grupo de Asesoramiento en Seguridad de OpenAI, nuevo equipo que hará recomendaciones a Altman o alguien nombrado por él.

Altman decidirá entonces sobre posibles modificaciones necesarias para reducir los riesgos del modelo.


El Consejo de administración será informado y podrá revertir las decisiones de la dirección.

Contenido sugerido

Contenido GEC