Alucinación. Dice el Diccionario de la Lengua Española que se trata de una sensación subjetiva que no va precedida de impresión en los sentidos, o la acción de alucinar. Pero pronto se tendría que agregar otro significado pues la inteligencia artificial (IA) también puede presentarlas, y de una manera peculiar.
Aunque la IA ya estaba en nuestras vidas desde hace muchos años, la aparición del ChatGPT en el 2022 puso en la mirada de todos a la IA generativa, una forma de inteligencia artificial que podría competir con los humanos.
MIRA: Tesla necesita humanos para que trabajen entrenando a sus robots: pagan hasta US$ 48 la hora
Pero esta IA también tiene sus errores, y en la terminología especializada se le ha llamado alucinación de la inteligencia artificial.
“Una alucinación es el nombre técnico para algo que simplemente es que la inteligencia artificial contesta mal, es un error, es una insatisfacción por parte del usuario a la respuesta que recibe”, dice Julian Colombo, CEO de la empresa N5, dedicada a la transformación digital.
Entre los modelos de IA destaca ChatGPT. Es un modelo de lenguaje desarrollado por OpenAI, con la capacidad de aprendizaje para dar respuestas detalladas y bien articuladas. Pero no es el único que existe. Las grandes marcas tecnológicas ya tienen su propio asistente: Google cuenta con Gemini, Meta tiene a MetaAI, Microsoft trabaja con Copilot o Anthropic con Claude.
Todos estos modelos, y muchos más, pueden entablar diálogos, resolver preguntas, generar imágenes, audios o videos, todo cuanto se le pueda ocurrir a un usuario. Evidentemente, el funcionamiento de estos aplicativos demanda el manejo de gran cantidad de información que puede provenir de Internet o no.
Pero no hay sistema que no tenga fallas. Hoy en día los chatbots tienen una tasa de alucinaciones entre un 3% hasta un 27%, indica Colombo. Esto se complica a medida que son más las personas que usan estos sistemas de IA, o son instituciones las que recurren a ella, provocando serios efectos en los usuarios. Recordemos que ahora las organizaciones como bancos, clínicas o universidades que cuentan con chatbots para la atención al público.
MIRA: Adicción y redes sociales: cómo pueden TikTok y otras plataformas afectar el comportamiento de menores
“Hay muchas razones por las que se afecta, y como hay muchas es improbable que desaparezcan porque no es una sola causa”, indica el analista. Las alucinaciones se pueden deber a fallos en el hardware, en algunas fases de comunicaciones, fallos en los datos de origen, etc. y “todo aquello quita credibilidad a la inteligencia artificial”.
¿Reducir las alucinaciones?
Las alucinaciones se hacen más evidentes cuando los chatbots tienen fallas de raciocinio o fallas de lógica, como si se le preguntara por el resultado de dos más dos y responda tres, o diga que el río Amazonas es un río de Europa o que Lionel Messi juega por la selección peruana. Aunque los ejemplos son solo representaciones, en la vida real esto puede ser mucho más complicado.
“Hoy la inteligencia artificial para muchas personas es como un entretenimiento, es como un juego, pero uno no puede contestar cuestiones médicas sobre algo que es un juego, hay que tener un nivel de precisión y de diseño de la arquitectura [de la IA]”, indica Colombo. Es importante reconocer que hay sistemas abiertos, que trabajan usando información de Internet, y sistemas cerrados que cuentan con información propia.
En este último espacio es que N5 plantea el uso de la lógica de redundancia distribuida que permite que se autorregulen las alucinaciones, reduciendo a un 1% las alucinaciones con su Fin Skys (Financial Self-Contained Artificial Intelligence), un paquete de tres herramientas de IA: AIfred, Pep y Singular.
MIRA: Meta AI en WhatsApp: ¿cómo utilizarlo, cuán seguro es y cómo se compara con ChatGPT y Gemini?
La propuesta se caracteriza por no hablar con Internet. Es decir solo cuenta con datos aprobados y, si un dato está viejo, lo descarta, usa datos curados en un ambiente cerrado. “Eso se llama autocontenido”, indica Colombo. Lo segundo es que es más específica y profunda. “En vez de ir a buscar millones de cosas, mira un set más limitado y eso también la hace más efectiva y, finalmente, nosotros tenemos un modelo de orquestación de muchas inteligencias artificiales al mismo tiempo”, indicó a este Diario.
Esto funciona en el sector financiero, que es donde N5 se desempeña. Además, evita que se filtre información personal dando mayor seguridad. ¿Puede aplicarse en otros sectores como educación, medicina, y demás espacios de interés público?
“Todo va a depender de la finalidad. Si yo hago una inteligencia artificial y quiero poder preguntar cualquier cosa, tiene que estar abierto porque Internet tiene los datos; pero si yo le quiero preguntar sobre la historia de un paciente, tiene que estar cerrado para no confundirse y para ser siempre preciso. Hay infinitamente menos alucinaciones y va a buscar a un único lugar”, explicó Colombo.
Sigue siendo un reto convivir con la inteligencia artificial, con sus errores y también con sus aciertos. Una tecnología que llegó para quedarse.
TE PUEDE INTERESAR
- Windows 10: así puedes dejar el sistema operativo como nuevo y sin perder archivos
- Tesla necesita humanos para que trabajen entrenando a sus robots: pagan hasta US$ 48 la hora
- Crean motor de auto eléctrico que se integra a las ruedas y logra 335 CV y 2.400 Nm de par
- Exinvestigador de Google trabaja para que la IA desarrolle el sentido del olfato