El director ejecutivo de la firma tecnológica Nvidia, Jensen Huang, cree que la Inteligencia Artificial general (AGI, por sus siglas en inglés) llegará en cinco años y que será “un 8 por ciento mejor” que la de los seres humanos.
MIRA: Escritores demandan a Nvidia por infracción de derechos de autor en el entrenamiento de su IA
La AGI se concibe como un tipo de sistema automático que tiene la capacidad de llevar a cabo cualquier tarea intelectual humana con éxito. Este ‘software’ puede, por tanto, razonar, aprender, comunicarse en lenguaje natural o, incluso, planificar el futuro.
La IA general no debe confundirse con la IA, que es una disciplina de la informática que permite al ‘software’ resolver tareas nuevas y/o complejas con un rendimiento a nivel humano tras un entrenamiento previo, ya que la AGI puede hacerlo sin intervención manual y sin limitarse a un ámbito específico. Esto quiere decir que la AGI se puede autoenseñar y resolver problemas para los que nunca se ha formado.
En un encuentro reciente con medios de comunicación, el CEO de Nvidia ha hablado sobre este tema y ha comentado que predecir “cuándo se verá una AGI aceptable” primero depende de cuál sea la definición esta IA.
En este sentido, ha subrayado que “si se especifica que es algo muy concreto”, como un conjunto de pruebas a las que se puede someter un programa informático para resolverlas como si se tratara de un humano, la AGI llegará “en cinco años”.
En este sentido, el directivo ha matizado que la IA general “puede funcionar muy bien”; tanto que podría ser “un 8 por ciento mejor que la mayoría de los usuarios” en pruebas como “un examen de abogacía, pruebas de lógica, económicas o la capacidad de aprobar un examen de premedicina”, según recoge TechCrunch.
Alucinaciones “solucionables”
Además de la AGI, Huang ha opinado sobre las alucinaciones de la IA. Se conoce como alucinaciones a aquellos datos que ofrece un modelo impulsado por esta tecnología que, a pesar de que están escritos de manera coherente, incluyen información incorrecta, sesgada o errónea.
El directivo ha subrayado que cree que estas se pueden resolver fácilmente, siempre que para elaborar las respuestas se haga una investigación previa. “Ante una respuesta de una IA, hay que examinar la fuente y el contexto”, ha señalado.
Una vez se haya pasado esta primera fase del procedimiento, se debe “comparar los hechos con verdades conocidas” y, si la respuesta es incorrecta, aunque sea de forma parcial, debe descartarse la fuente y pasar a otra diferente.
“La IA no debería simplemente responder. Primero debería hacer una investgiación para determinar cules de las respuestas son las mejores”, ha sentenciado Huang.
TE PUEDE INTERESAR
- Los 3 empleos que no van a desaparecer pese a la inteligencia artificial, según Bill Gates
- Ubisoft utiliza la IA generativa para que los NPC hablen e interactúen de manera más realista
- Conoce a ‘Illa’, una herramienta contra la desinformación sobre violencia obstétrica
- YouTube ya tiene una herramienta para etiquetar el contenido generado por inteligencia artificial
- Desde asteroides a monstruos: TikTok inundada por teorías conspirativas con IA
Contenido sugerido
Contenido GEC