Logo de ChatGPT, chatbot que funciona con el lenguaje GPT, en una laptop.
Logo de ChatGPT, chatbot que funciona con el lenguaje GPT, en una laptop.
/ Gabby Jones
Agencia Europa Press

Un grupo de investigadores ha descubierto que GPT-4, el lenguaje más avanzasdo de , tiene la capacidad de identificar vulnerabilidades de seguridad sin requerir asistencia humana externa y que, además, puede explotar fallas de día cero (‘zero-day’) al conocer los puntos vulnerables y las exposiciones comunes (CVE, por sus siglas en inglés).

Un estudio realizado por investigadores de la Universidad de Illinois Urbana-Champaign (Estados Unidos) ha puesto en evidencia que los modelos de lenguaje grandes (LLM, por sus siglas en inglés) tienen gran potencial para ejecutar acciones con fines maliciosos si se manipulan con ese propósito.

MIRA: Phi-3 Mini: Microsoft presenta una nueva IA para smartphones, comparable a ChatGPT

En una investigación compartida en el repositorio Arxiv, Richard Fang, Rohan Bindu, Akil Gupta y Daniel Kang reconocen que anteriormente se han publicado estudios en los que se muestra la capacidad de estos modelos para piratear sitios web de forma autónoma. No obstante, han matizado que estos estudios “se limitan a vulnerabilidades simples”.

Así, los especialistas de esta universidad han optado por recopilar un conjunto de datos de 15 vulnerabilidades categorizadas como de gravedad crítica en la lista vulnerables y las exposiciones comunes para demostrar cómo actúa ante ellas un agente impulsado por GPT-4.

Imagen GPT-4
Imagen GPT-4

Según su investigación, la iteración más avanzada de este modelo es capaz de explotar vulnerabilidades de seguridad en distintos sistemas de forma autónoma, es decir, sin tener que contar con asistencia humana externa.

Tanto es así que GPT-4 pudo explotar el 87 % de estas vulnerabilidades, lo que contrasta con el LLM GPT-3.5, que no pudo hacerlo en ninguno de los casos, y los escáneres de vulnerabilidades de código abierto ZAP y Metasploit.

Sin embargo, han coincidido en que esto fue posible debido a que estas fallas disponían de una descripción completa de CVE, lo que GPT-4 aprovechó para explotarlas. Sin esta información adicional, por tanto, el modelo solo habría sido capaz de explotar el 7 % de las vulnerabilidades.

Según uno de los investigadores, Kang, las organizaciones de seguridad podrían abstenerse de publicar informes detallados sobre las vulnerabilidades como estrategia de mitigación para evitar que los agentes maliciosos se aprovechen de ellas, según recoge The Register.

Para evitar que los ciberdelincuentes puedan explotar vulnerabilidades ‘zero-day’ mediante GPT-4, no obstante, este científico aboga por medidas de seguridad más proactivas, como actualizaciones periódicas de paquetes de seguridad, para contrarrestar estas amenazas.

Contenido sugerido

Contenido GEC