La crisis vivida dentro de OpenAI, tras el abrupto despido y restitución de Sam Altman, sigue generando controversias. Y es que una de las razones que estaría detrás de esta diferencia sería el proyecto llamado AGI, o lo que algunos llaman como la Inteligencia Artificial (IA) General.
Según un informe de la agencia Reuters, antes de la crisis un grupo de investigadores escribió una carta a la junta directiva de OpenAI advirtiendo sobre un descubrimiento de IA que podría amenazar a la humanidad.
LEE TAMBIÉN: Cómo configurar el “Botón de acción” del iPhone para usar al asistente de voz de ChatGPT en vez de Siri
En la investigación periodística participaron dos fuentes anónimas. Aunque no se ha tenido acceso al mensaje, OpenAI reconoció en un mensaje interno a su personal la existencia de un proyecto llamado Q* (que se pronuncia como Q-Star).
No se ha detallado el contenido, pero según señala Reuters, en el interior de OpenAI se cree que podría ser un gran avance en la búsqueda de la startup en lo que se conoce como inteligencia artificial general (AGI).
Esto también despierta las sospechas sobre el despido de Altman, fundador y CEO de OpenAI, pues en la cumbre de Cooperación Económica Asia-Pacífico dijo: “Cuatro veces en la historia de OpenAI, la más reciente fue en las últimas dos semanas, he estado en la sala, cuando en cierto modo empujamos el velo de la ignorancia hacia atrás y la frontera del descubrimiento hacia adelante”. Unos días después fue despedido.
¿La humanidad en riesgo?
La IA General es uno de los retos dentro de los investigadores informáticos. Según informe de El Confidencial, Nisha Talaga, CEO de AIClub, lo ha descrito como “una inteligencia que no está especializada en ninguna tarea concreta”, sino que es buena en muchas.
LEE TAMBIÉN: Una nueva era en OpenAI: consecuencias del regreso de Sam Altman a la firma que cambió la IA
Por otro lado, el equipo de DeepMind, una división de Google que se dedica a la investigación sobre IA, ha establecido cinco niveles de AGI. El primero se llama Emergente, que es donde hoy nos encontramos con chatbots como ChatGPT y Bard; luego vienen otros: Competente; Experto; Virtuoso y, finalmente, Sobrehumano, que es capaz de realizar varias tareas mejor que los humanos.
Otro de los retos es que no solo pueda hacer muchas tareas a la vez, sino que pueda aprender a realizarlas, evaluar su desempeño y pedir ayuda.
Entre los riesgos que se señala en el informe es que también supone una amenaza sobre la privacidad de datos, al tomar decisiones de manera autónoma, poniendo en riesgo la seguridad de muchas personas. Por ello, hoy en día la Unión Europea, Estados Unidos, Japón y otros territorios del mundo evalúan medidas regulatorias.
TE PUEDE INTERESAR
- Tiene músculos, ligamentos y tendones: la mano robótica hecha en impresora 3D
- En plena época digital, Kodak lanza una cámara de película que cuesta más que el iPhone 15 Pro Max
- Guowang, la versión china de la constelación de satélites Starlink de Elon Musk
- La autenticación biométrica en dispositivos Windows también está expuesta a vulnerabilidades
VIDEO RECOMENDADO
Contenido sugerido
Contenido GEC