Estafadores utilizan IA para videollamadas fraudulentas: ¿cómo reconocerlas? (Foto: Archivo)
Estafadores utilizan IA para videollamadas fraudulentas: ¿cómo reconocerlas? (Foto: Archivo)
Grupo GDA

La () está revolucionando varias tareas diarias que se tenían hasta ahora. Aunque en su mayoría ha beneficiado actividades laborales, lo cierto es que también tiene su lado oscuro y presenta otras dificultades para el ser humano. Tal es el caso de las videollamadas de fraude que últimamente son una constante en temas de ciberseguridad.

El machine learning es una rama de la Inteligencia Artificial en la cual se busca, a través de la recopilación de datos, el procesamiento de información para que la máquina la analice y pueda aprender de ella. Su desarrollo tiene fines positivos, pero los ciberdelincuentes están encontrando cómo usarla para cometer estafas.

MIRA: Los “profesores” hechos con inteligencia artificial ya están enseñando a docentes peruanos: ¿cómo empezó?

Y es que si bien la IA es utilizada en el sector empresarial, legal, logístico, educativo, entre otros, con la finalidad de automatizar procesos, reducir tiempos y aminorar el margen de error humano, la implementación de nuevas herramientas tecnológicas también está dando espacio a nuevas modalidades de fraude, muchas de ellas tan modernas y precisas que son mucho más difíciles de detectar.

Así, el aprendizaje continuo, y en ocasiones acelerado de la Inteligencia Artificial, propició que los delincuentes vieran beneficio en ella, no solo haciendo actos fraudulentos, sino volviéndose unos expertos en el tema.

Fraude a través de videollamadas con video e imagen generados por IA

Aunque parezca difícil de creer, la próxima vez que respondas a una videollamada de un conocido puede ser que no estés hablando realmente con esa persona, sino con una máquina, no importa si ves su imagen y escuchas su voz, una Inteligencia Artificial podría estar detrás.

No todos saben que la IA permite replicar voces reales. Actúa a través de un ejemplo auditivo que quiere imitar, buscando en algoritmos tonos similares para detectar patrones y encontrar los más parecidos a la voz original. Una vez logrado, la tecnología crea una nueva voz y con ella, la ejecución de frases breves sin mucha complejidad.

MIRA TAMBIÉN: ¿No puedes usar ChatGPT? Las cuatro mejores alternativas al chatbot de OpenAI

En el caso de la imagen, el proceso es similar. Luego de una recopilación de imágenes reales puede formular una representación muy precisa de la apariencia real de una persona.

A partir de ambos casos, ejemplos de fraudes con videollamadas ya han sido documentados en diversos países. Uno de ellos fue el de un empresario chino que resultó estafado por una suma aproximada de 600 mil dólares pues confió en que la persona con la que se comunicaba era real.

Ante ese tipo de situaciones, China, al ser un país de vanguardia en tecnología, lanzó recientemente una ley para regular el uso de la IA.

Recomendaciones para no caer en el fraude por videollamadas

Para aminorar las posibilidades de caer en un fraude por videollamada, algunas recomendaciones a seguir son:

  • Evita dar información personal o datos sobre tarjetas y cuentas bancarias.
  • Si notas algo sospechoso, realiza preguntas específicas a la otra persona, cosas que solo ambos compartan.
  • Verificar la fuente de la llamada con el número telefónico o correo electrónico.
  • No confíes si hay presión para tomar alguna acción en específico.

Es necesario implementar leyes para regular el uso de IA y concientizar a la población respecto a su alcance y poder hacer uso apropiado de estas nuevas tecnologías.

GDA / El Universal / México

Contenido sugerido

Contenido GEC