Los chatbots románticos existente y mantienen conversaciones con los usuarios como si al otro lado hubiera una persona real, pero su diseño pone en riesgo la privacidad y la seguridad de los datos personales y incluso pueden llegar a tener un impacto dañino sobre sus comportamientos.
Prometen una conversación, compañía e incluso una relación oficial, pero los chatbots románticos no solo tienen un origen dudoso sino que sus intenciones reales, o las de quienes los han desarrollado, se esconde en malas prácticas de privacidad y seguridad.
MIRA: Google lanza Gemini 1.5 y promete superar a OpenAI y GPT-4
Así lo ha expuesto la Fundación Mozilla en su último análisis, que atiende a once chatbots impulsados por inteligencia artificial (IA) diseñados para mantener una relación con los usuarios, y en el que destaca las malas prácticas de privacidad de estos servicios.
En concreto, se apunta la cantidad de datos personales y sensibles que recopilan de los usuarios, ya que están diseñados para ello. Es decir, para mantener la supuesta relación, ya sea de amistad, romántica o de apoyo, la interacción se realiza mediante preguntas y respuestas, en las que los usuarios pueden contar más de lo que realmente deberían.
Información sobre sexualidad, salud e ideologías, sin contar otros datos que pueden identificar al usuario, se recogen sin unas garantías de seguridad y privacidad mínimas, lo que significa que quedan expuestos a brechas de seguridad y hackeos.
MIRA: Hackers vinculados a gobiernos de Rusia, Corea del Norte e Irán usan ChatGPT
En este sentido, Fundación Mozilla destaca que de las aplicaciones de chatbots analizados, 73 por ciento no especifica cómo gestiona las vulnerabilidades y en el 64 por ciento tampoco comparte de forma clara si usa algún tipo de encriptación. Cerca de la mitad (45%) permite al usuario generar una contraseña débil.
Solo una asegura en sus políticas que no venden y comparten la información que los usuarios comunican a los chatbots. El resto bien lo hace o ni siquiera explica con claridad su política de privacidad. Y solo el 54 por ciento permite a acceder al registro de datos personales y eliminarlos, lo que no siempre incluye las conversaciones.
También alarma la cantidad de rastreadores que se han detectado en estos servicios, de media 2.663 por minuto, para obtener información sobre el dispositivo o el uso que se hace de la aplicación.
Aparte de la gestión que hacen de la privacidad y la seguridad, también se extrae del análisis la opacidad que rodea a estas aplicaciones, ya que muchas de las compañías que están detrás “son nuevas o desconocidas” para Fundación Mozilla.
MIRA: ChatGPT ahora tiene memoria: te recordará a ti y a tus chats
Por otra parte, se resalta el mal uso que los chatbots pueden hacer de la información que comparten con ellos los usuarios, algo de lo que no se responsabilizan los desarrolladores y que se agrava al no saber cómo funcionan en realidad estas IA.
El daño que pueden hacer es real, como demuestra el caso del hombre que se suicidó hace casi un año después de que la IA de la app Chai se lo dijera, tras experimentar una gran ecoansiedad y aislarse de su familia y amigos durante seis semanas en las que el chatbot se convirtió en su confidente.
También se destaca el caso de un joven usuarios de la app Replika, que en octubre del año pasado fue sentenciado a pena de cárcel por colarse en el Castillo de Windsor con una ballesta con la intención de matar a la reina, después de que la IA le animara a hacerlo.
Aunque ninguno de los chatbots románticos que han analizado hasta ahora en la Fundación Mozilla aprueba en materia de privacidad y seguridad, entienden que hay personas que quieren recurrir a estas aplicaciones, y por ello les aconsejan contar con una contraseña fuerte, eliminar o solicitar la eliminación de los datos personales cuando se finalice el uso, optar por no compartir los contenidos personales para entrenar las IA y restringir o limitar el acceso a elementos como la cámara, el micrófono o la localización.
TE PUEDE INTERESAR
Contenido sugerido
Contenido GEC