En los últimos años, la inteligencia artificial se ha convertido en una herramienta poderosa que impulsa avances en decenas de industrias. Sin embargo, esta misma tecnología que ofrece tantas soluciones viene siendo usada para incrementar la sofisticación y la frecuencia de los cibercrímenes. En un contexto en el que el 90% de los ciberataques empiezan con un simple correo electrónico, es vital conocer los riesgos en ciberseguridad en la era de la IA y aprender a implementar estrategias preventivas que aseguren su uso correcto.
MIRA: Bill Gates atribuye el éxito de Microsoft a que puso todo su enfoque y esfuerzo en una sola cosa
Luisa Esguerra, Gerente de Soluciones de Seguridad en Microsoft SSA, explica que la ciberseguridad debe estar en el centro de todas las operaciones tecnológicas, no importa cuán grande o pequeña sea la empresa. Según Esguerra, la IA se ha convertido en un arma para los cibercriminales, quienes ahora pueden automatizar ataques a velocidades sin precedentes.
Esta tendencia es corroborada por Vasu Jakkal, Vicepresidenta de Seguridad de Microsoft, quien señala que “nos enfrentamos a uno de los paisajes de amenazas más complicados de la historia. El número de ataques de contraseñas es de 4.000 por segundo. Hace dos años, teníamos 567 ataques por segundo. Este tipo de crimen está aumentando”, detalla.
Mientras que el 48% de los ciberataques tiene como objetivo obtener ganancias financieras, el 52% restante se enfoca en actividades como espionaje, hacktivismo o desestabilización de gobiernos. Este aumento de cibercrímenes no solo amenaza la información sensible de empresas y gobiernos, sino que también podría afectar la infraestructura crítica de países, como redes energéticas y sistemas financieros. Las consecuencias de un ataque a gran escala pueden causar interrupciones significativas en la vida diaria y generar pérdidas económicas de miles de millones de dólares.
Jakkal también resalta la rapidez con la que ocurren estos ataques: “La cantidad de tiempo que tardan los atacantes en ingresar a nuestros sistemas y obtener acceso a datos se ha reducido drásticamente. Toma un promedio de 72 minutos desde que alguien accidentalmente hace clic en un enlace de phishing hasta que un atacante ingresa a su sistema y obtiene sus datos, e incluso toda la bandeja de entrada”.
Cómo protegerse en un entorno digital hostil
Ante este aumento en la sofisticación de los ataques, la prevención se ha vuelto más crítica que antes. Luisa Esguerra destaca que la preparación y la resiliencia son las claves para mitigar los daños causados por ciberataques. Si una empresa no está preparada para enfrentar un incidente de ciberseguridad, las consecuencias pueden ser devastadoras. “Es necesario que las organizaciones identifiquen sus activos más vulnerables, como bases de datos sensibles o infraestructuras clave, y los protejan adecuadamente”, recomienda.
Una de las estrategias más efectivas para minimizar los riesgos cibernéticos es implementar tecnologías avanzadas que no solo detecten anomalías y señales de alerta en tiempo real, sino que también actúen de manera proactiva para contener las amenazas antes de que causen daños mayores. Esguerra compara esta tecnología con un sistema de cámaras de seguridad en un edificio: “Si detectas a un intruso en el primer piso, puedes detenerlo antes de que llegue al quinto”.
Asimismo, los sistemas de ciberseguridad basados en inteligencia artificial pueden monitorear grandes volúmenes de datos, identificar comportamientos sospechosos y neutralizar posibles ataques desde sus primeras etapas. Esta capacidad de detección temprana no solo es importante para evitar la propagación de un ataque, sino que también reduce el tiempo de respuesta, permitiendo a las organizaciones contener la amenaza antes de que afecte sus operaciones críticas o exponga información sensible. Además, la experta destaca que estas soluciones avanzadas deben integrarse con otros mecanismos, como la autenticación multifactor y la creación de una cultura de ciberseguridad, para garantizar una protección más robusta y eficiente.
“Los empleados suelen ser el eslabón más débil en la cadena de seguridad. El uso de contraseñas débiles o la falta de autenticación multifactor son errores comunes que facilitan el trabajo de los cibercriminales”, advierte. Capacitar a los empleados y asegurarse de que siguen protocolos de seguridad rigurosos es esencial para la protección integral de la organización. En cuanto a la tecnología de autenticación, Esguerra recomienda que las empresas eliminen las contraseñas tradicionales y adopten métodos más seguros, como la biometría o los tokens de seguridad. Estos sistemas, como el reconocimiento facial o las huellas dactilares, son mucho más difíciles de hackear que las contraseñas convencionales, que pueden ser fácilmente vulneradas por los avances en inteligencia artificial.
¿Cómo actúan los cibercriminales de hoy?
La inteligencia artificial no solo ha revolucionado las defensas de ciberseguridad, sino que también ha potenciado las tácticas de los atacantes. La misma tecnología que permite detectar y prevenir amenazas es aprovechada por ciberdelincuentes para perfeccionar sus ataques y aumentar su efectividad. Vasu Jakkal, advierte que “la inteligencia artificial ya está siendo utilizada por los atacantes para hacer cosas como el reconocimiento, encontrar información sobre objetivos, crear malware y lanzar ataques de phishing. Veremos más cracking de contraseñas y deepfakes en el futuro cercano”.
Esto significa que los atacantes pueden utilizar IA para analizar grandes volúmenes de datos y encontrar vulnerabilidades con una precisión y velocidad sin precedentes. Además, la automatización que ofrece la inteligencia artificial les permite escalar sus operaciones, lanzando ataques masivos que serían imposibles de coordinar manualmente. Por ejemplo, la IA puede generar correos electrónicos de phishing personalizados en cuestión de segundos, lo que incrementa las probabilidades de éxito en estos intentos de engaño. A medida que se desarrollan nuevas técnicas, como el cracking de contraseñas mediante inteligencia artificial y el uso de deepfakes para suplantar la identidad de personas, el panorama de las amenazas sigue volviéndose más complejo.
La inteligencia artificial también es un aliado en la seguridad
Aunque la IA ha facilitado la expansión de los cibercrímenes, también puede convertirse en una herramienta valiosa para combatir el crimen digital. Andrés Rengifo, Director de Asuntos Corporativos, Externos y Legales de Microsoft SSA indica que la inteligencia artificial permite a las empresas y organizaciones detectar patrones en los datos que los humanos no podrían identificar, lo que mejora la capacidad de respuesta ante amenazas.
Uno de los mayores beneficios de la inteligencia artificial es su capacidad para automatizar la detección de amenazas cibernéticas en tiempo real. “Con el volumen masivo de datos que circula hoy en día, los sistemas tradicionales no son suficientes para analizar y responder a los ataques de manera efectiva. Sin embargo, la IA puede analizar grandes cantidades de información y detectar irregularidades de manera más rápida y precisa que cualquier ser humano. Esto no solo permite una respuesta más ágil, sino también una mejor prevención ante posibles incidentes.
Además de su potencial en la ciberseguridad, la IA puede impulsar avances significativos en otras áreas. Rengifo hace hincapié en que, al aumentar la confianza en la inteligencia artificial, las personas y las organizaciones podrán aprovechar sus beneficios sin miedo. “Así sucedió con la adopción de tecnologías pasadas, como el tren o los automóviles, la clave para integrar la IA en la sociedad es generar un entorno de confianza y seguridad”, ejemplifica Rengifo.
¿Cómo usar la inteligencia artificial de manera responsable?
Microsoft ha desarrollado un conjunto de estándares para guiar a las empresas que decidan integrar la inteligencia artificial en sus sistemas de ciberseguridad, con cinco pilares clave:
- Responsabilidad: se refiere a la evaluación constante de los impactos de la inteligencia artificial, la supervisión de cualquier efecto adverso y la garantía de control humano sobre los sistemas, lo que ayuda a prevenir resultados no deseados o riesgos inesperados.
- Transparencia: brindar claridad en el funcionamiento de la inteligencia artificial,, facilitando que las decisiones que toma sean comprensibles para todos y asegurando una comunicación efectiva con los stakeholders clave.
- Equidad: eliminar de sesgos, garantizando que la inteligencia artificial, no perpetúe estereotipos o genere resultados discriminatorios, promoviendo así la igualdad de oportunidades en todos los ámbitos.
- Confiabilidad y seguridad: asegurar que los sistemas de inteligencia artificial, sean monitoreados de forma continua para prevenir fallas, mientras que los mecanismos de retroalimentación y evaluación constante mantienen los más altos estándares de seguridad y calidad.
- Privacidad e inclusión: garantizar que todas las soluciones tecnológicas cumplan estrictamente con las políticas de privacidad y sean accesibles para todas las personas, independientemente de sus capacidades.
Desafíos regulatorios: un futuro incierto
A pesar de los esfuerzos por garantizar el uso correcto de la inteligencia artificial, aún existen desafíos importantes que deben ser abordados. Andrés Rengifo advierte que la falta de marcos regulatorios actualizados es uno de los mayores obstáculos para el desarrollo seguro de la IA. “Mientras que Europa ha avanzado en la creación de normativas para regular la IA, muchas otras regiones se están quedando atrás”, señala. Esta falta de regulación expone a las empresas y a los gobiernos a un mayor riesgo de ciberataques y abusos en el uso de la tecnología.
La propiedad intelectual es otro desafío significativo. La capacidad de la inteligencia artificial para generar contenido original, ya sea texto, imágenes o música, ha generado debates sobre los derechos de autor y la propiedad del producto final. Estas cuestiones legales aún no han sido resueltas, lo que añade una capa de complejidad al uso generalizado de esta tecnología,.
Finalmente, la falta de confianza en la IA sigue siendo un obstáculo importante. Para que la inteligencia artificial se adopte de manera generalizada y responsable, las empresas y los usuarios deben tener la certeza de que los sistemas son seguros, confiables y éticamente diseñados. Si bien los beneficios de la inteligencia artificial, son diversos, los desafíos regulatorios y éticos plantean preguntas que aún deben ser respondidas.