OpenAI no invierte lo suficiente para solucionar los riesgos de la superinteligencia, según exdirectivo.
OpenAI no invierte lo suficiente para solucionar los riesgos de la superinteligencia, según exdirectivo.
/ JACK GUEZ
Agencia Europa Press

creó un equipo centrado exclusivamente en la investigación y control de la futura tecnología de superinteligencia, pero no está invirtiendo los recursos necesarios para facilitar la labor de este equipo, impidiendo así obtener soluciones a los peligros que presenta esta tecnología para la sociedad, según el investigador y líder del equipo, Jan Leike, que recientemente ha anunciado su dimisión.

La superinteligencia será una tecnología “mucho más inteligente” que las capacidades actuales de los humanos, con la que se podrán resolver “muchos de los problemas más importantes del mundo”, com expone la compañía dirigida por Sam Altman. Sin embargo, esta tecnología también puede conllevar situaciones “muy peligrosas”, como la pérdida de poder de la humanidad o “incluso su extinción”.

MIRA: ¿Puede la inteligencia artificial ayudar a prevenir futuros desplazamientos forzados?

En este marco, OpenAI anunció en julio del pasado año la creación de un nuevo equipo conformado por investigadores e ingenieros de aprendizaje automático, que fue diseñado para investigar y obtener soluciones con las que dirigir y controlar estos sistemas de IA “superinteligentes”, en un plazo de cuarto años. Así, la tecnológica indicó que emplearía el 20 por ciento de sus ingresos y capacidades informáticas para el trabajo de este nuevo equipo.

Ahora, uno de los líderes de este equipo, Jan Leike, ha dimitido y ha advertido que “cada vez era más difícil realizar esta investigación crucial” sobre la superinteligencia, dado que OpenAI no ha invertido los recursos necesarios para facilitar su labor.

“Necesitamos urgentemente descubrir cómo dirigir y controlar sistemas de IA mucho más inteligentes que nosotros”, ha sentenciado Leike, al tiempo que ha señalado que, para ello, OpenAI debe invertir más en prepararse para “las próximas generaciones de modelos” de IA.

MIRA: El CEO de Google cree que enamorarse de una IA será inevitable en el futuro

En concreto, tal y como ha compartido en una publicación en X (antigua Twitter), las prioridades de la compañía deberían centrarse en la seguridad, la monitorización de actividad de la IA, la preparación, la protección, la solidez adversarial, la confidencialidad y el impacto social, entre otros temas relacionados con esta tecnología y su impacto.

Sin embargo, Leike ha manifestado que ha estado “en desacuerdo” con el liderazgo de OpenAI sobre las prioridades centrales de la compañía “durante bastante tiempo” y que, por tanto, le preocupa que la tecnológica “no esté en el camino correcto”. Esto se debe a que, según ha dicho, durante los últimos años la cultura y los procesos de seguridad “han pasado a un segundo plano”, frente a la creación de productos de alta potencia y más llamativos para los usuarios.

Con todo ello, Leike ha subrayado que construir máquinas más inteligentes que los humanos “es una tarea intrínsecamente peligrosa” y, en este sentido, ha recordado que “OpenAI asume una enorme responsabilidad en nombre de toda la humanidad”.

Por su parte, Sam Altman ha reconocido en una publicación en X que “hay mucho más por hacer” y ha manifestado que, desde OpenAI, están “comprometidos” en continuar trabajando en este proceso de investigación.

MIRA: Siri tendrá capacidades de IA “proactivas” y podrá resumir artículos y transcribir notas de voz en iOS 18

Igualmente, también se ha pronunciado el cofundador de OpenAI, Greig Brockman, quien ha puntualizado que necesitan “un circuito de retroalimentación muy estrecho”, así como pruebas rigurosas y una “consideración cuidadosa” en cada paso, de cara a continuar ofreciendo capacidades de IA, pero de forma segura.

Con ello, ha indicado que seguirán realizando investigaciones de seguridad dirigidas a “diferentes escalas de tiempo”, además de colaborar con los gobiernos y partes interesadas en materia de seguridad. “Nos tomamos muy en serio nuestro papel aquí y sopesamos cuidadosamente los comentarios sobre nuestras acciones”, ha concluido.

Ahora, tras la salida de Leike y de otro de los líderes del equipo enfocado en la tecnología de superinteligencia, Ilya Sutskever, el equipo de investigación ha pasado a estar encabezado por otro cofundador de OpenAI, John Schulman.

Sin embargo, según ha podido conocer TechCrunch, ya no hay un equipo enfocado exclusivamente a esta iniciativa, sino que hay un equipo asociado conformado por investigadores integrados en otras divisiones de la empresa.

Contenido sugerido

Contenido GEC