Lizeth Yarasca Perez

Hace unas semanascómo acceder a las conversaciones cifradas de chatbots como ChatGPT-4 y Copilot mediante un ataque de canal lateral. A pesar del cifrado, este método permitió revelar las respuestas de los chatbots.

La investigación fue liderada por expertos del Offensive AI Research Lab y de la Universidad de Ben Gurion (Israel). Ellos desarrollaron un ataque de canal lateral, una técnica para obtener información confidencial de un sistema sin atacarlo directamente, sino aprovechando otros aspectos del mismo.

Los especialistas encontraron que esta campaña permite a los ciberdelincuentes leer conversaciones cifradas de chatbots, lo que supone un grave problema de seguridad.

MIRA: Google estudia cobrar por un servicio de búsqueda gestionado por IA, según Financial Times

Ahora bien, en medio del auge de los chatbots con IA, estudiantes, profesionales y cualquier usuario utilizan esta tecnología en su día a día, por lo que conviene preguntarse: ¿qué tan seguras son nuestras conversaciones con estos modelos? ¿qué medidas podemos tomar para que nuestras interacciones no se vean vulneradas? En esta nota, te lo explicamos de la mano de dos expertos: Kenneth Tovar Roca, country manager para Perú y Bolivia en Palo Alto Networks, y Juan Sebastián Estévez, líder de IBM Security para el norte de Sudamérica.

Seguridad de los chatbots

Se puede decir que la seguridad de estos chatbots se encuentra en un proceso en el que los desarrolladores deben trabajar para mitigar sus vulnerabilidades”, declara Tovar. Además, subraya que los ciberdelincuentes aprovecharán las innovaciones tecnológicas para mejorar constantemente sus métodos de elusión de los protocolos de seguridad en diversas plataformas, incluidos los chatbots.

En este sentido, es importante que los desarrolladores estén a la vanguardia de las técnicas de seguridad para proteger las conversaciones de los usuarios, sugiere.

Al respecto, el vocero de IBM añade que no se debe pensar que todos los asistentes virtuales con inteligencia artificial tienen problemas de seguridad, ya que muchas empresas los están usando para mejorar el servicio a los usuarios, asegurándose de que cumplan con los estándares de seguridad requeridos. Sin embargo, “también es cierto que los delincuentes ya están usando la IA para robar datos importantes de las personas”.

De hecho, en un intento por explorar posibles amenazas, el equipo de IBM Security intentó hipnotizar los LLMs más conocidos, demostrando que es una realidad y revelando que sí hay riesgos ocultos de ciberseguridad”, advirtió.

MIRA: ¿Cómo verificar la autenticidad de una URL y protegerme contra posibles fraudes?

Al imaginar la situación en la que los ciberdelincuentes acceden a las conversaciones de los reconocidos chatbots, surge la pregunta: ¿qué información de los usuarios estaría en riesgo?

Ante esto, el experto de Palo Alto Networks señala que la información que los chatbots de inteligencia artificial pueden comprometer en las conversaciones varía según de qué se esté hablando y cómo se interactúe, “pero generalmente puede incluir datos de identificación personal como nombre, dirección, números de teléfono, correo electrónico, etc; así como datos financieros, cuentas bancarias, datos de salud, preferencias personales o datos de ubicación”, puntualiza.

En la misma línea, Estévez también señala que la información personal es lo más vulnerable, ya que “para los delincuentes cibernéticos, hoy lo más apetecido son los datos de las personas”. Además, revela que en Latinoamérica, contraseñas, números y direcciones representan el 22% de los inicios de ciberataques.

¿Con qué objetivo los delincuentes cibernéticos roban estos datos? Tovar responde que utilizan los datos para llevar a cabo actividades como estafas financieras, robo de identidad, extorsión, enviar correos electrónicos de phishing personalizados o lanzar ataques de ransomware. “Asimismo, se podría generar un grave daño a la reputación del usuario si se usan los datos con fines difamatorios”.

El representante de Palo Alto enfatiza que, entre los riesgos, el más relevante en el contexto de la filtración de conversaciones de los chatbots conversacionales, tiene que ver con que el “usuario pueda verse envuelto en un gran problema judicial, económico o de reputación si es que sus datos llegan a manos inescrupulosas”. Además, exhorta que el cibercriminal podría ser capaz de hacerse pasar por otra para romper medidas de seguridad y así acceder al dinero y otros bienes de la víctima.

ChatGPT se posicionó rápidamente como el chatbot de IA más usado.
ChatGPT se posicionó rápidamente como el chatbot de IA más usado.

¿Cómo podemos saber si un chatbot ha sido vulnerado?

Tovar alega que resulta desafiante discernir si un chatbot es seguro o vulnerable al interactuar con él, dado que no siempre es evidente. No obstante, revela que existen ciertas indicaciones que pueden ayudarnos a evaluar su nivel de seguridad como a continuación:

  • Algunos chatbots muestran certificados de seguridad: estos indican que el chatbot ha pasado evaluaciones de seguridad.
  • Se puede verificar el cifrado de extremo a extremo: esto garantiza la privacidad de las conversaciones.
  • También se pueden revisar las reseñas de otros usuarios: proporcionan información sobre la reputación del chatbot y posibles problemas de seguridad.

El punto de partida es saber cuál es el proveedor del asistente virtual o chatbot y qué tan confiable es porque hoy en día los LLMs o grandes modelos de lenguaje son sencillos de crear gracias a la IA generativa”, añade el especialista de IBM.

Copilot es un sistema de inteligencia artificial creado por Microsoft.
Copilot es un sistema de inteligencia artificial creado por Microsoft.

Recomendaciones de ciberseguridad

Algunas de las recomendaciones que ambos expertos en ciberseguridad ofrecen para ayudar a los usuarios a protegerse contra posibles vulnerabilidades y mantener la seguridad de sus conversaciones con chatbots de IA son las siguientes:

  • Optar por la versión paga puede prevenir vulnerabilidades al ofrecer medidas de seguridad más avanzadas, al igual que configurar la eliminación del historial de conversaciones.
  • Limitar la información compartida con el chatbot, especialmente evitando revelar datos personales sensibles como números de identificación o contraseñas.
  • Prestar atención a señales de fraude: es importante recordar que los chatbots legítimos rara vez solicitan datos personales y financieros.
  • Conectarse a través de canales seguros como aplicaciones móviles con HTTPS.
  • Mantener la aplicación actualizada garantiza la corrección de posibles vulnerabilidades y el uso de contraseñas sólidas añade una capa adicional de seguridad.
  • Evitar interactuar con correos desconocidos para prevenir la conexión de malware, y practicar la ciberseguridad cambiando regularmente tus contraseñas y utilizando una diferente para cada aplicación.