Hace poco, Ucrania reveló un nuevo tipo de ataque digital que marca un antes y un después en la ciberseguridad: hackers rusos utilizaron inteligencia artificial para robar información sensible de sus víctimas. En lugar de limitarse al clásico correo de phishing con archivos adjuntos, incluyeron un programa basado en IA capaz de rastrear automáticamente los equipos infectados y enviar archivos confidenciales de vuelta a Moscú.
Según informes del gobierno ucraniano y varias compañías de ciberseguridad, este sería el primer caso documentado en el que la inteligencia rusa crea malware con ayuda de modelos de lenguaje masivo (LLM), el mismo tipo de tecnología que impulsa a chatbots como ChatGPT.
Aunque los LLM todavía cometen errores, su capacidad para generar código, procesar instrucciones en lenguaje natural y analizar documentos está revolucionando la manera en la que trabajan tanto atacantes como defensores. No se trata de que un novato se convierta de la noche a la mañana en un experto, pero sí de que los hackers experimentados puedan actuar con mayor rapidez y precisión.
Empresas de ciberseguridad también han comenzado a usar IA para adelantarse a los atacantes. Google, por ejemplo, emplea su modelo Gemini para detectar vulnerabilidades en software antes de que los criminales las exploten. Heather Adkins, vicepresidenta de ingeniería de seguridad en Google, aseguró que su equipo ya ha identificado al menos 20 fallos críticos que pasaron desapercibidos a investigadores humanos.
Una carrera de gato y ratón
El fenómeno no se limita a Rusia. Firmas como CrowdStrike aseguran que hackers chinos, iraníes y grupos criminales también han integrado herramientas de IA en sus operaciones. Desde escribir correos de phishing mucho más convincentes hasta automatizar el robo de credenciales, la IA se está convirtiendo en un multiplicador de fuerza para el cibercrimen.
Al mismo tiempo, compañías emergentes como Xbow o DreadNode están demostrando cómo los LLM pueden emplearse en pruebas de seguridad ofensivas. Xbow incluso alcanzó el primer puesto en el ranking de HackerOne, superando a miles de investigadores humanos en la detección de vulnerabilidades.
¿Quién tiene la ventaja?
Por ahora, los defensores parecen llevar la delantera. Alexei Bulazel, director de ciberseguridad en el Consejo de Seguridad Nacional de EE. UU., destacó que la IA democratiza el hallazgo de fallos, permitiendo que incluso equipos pequeños detecten vulnerabilidades antes de que los delincuentes las aprovechen.
Sin embargo, el futuro es incierto. Expertos advierten que la llegada de herramientas automáticas de hacking impulsadas por IA podría abrir una “temporada de caza” contra pequeñas empresas con poca protección. Y con la evolución de la llamada agentic AI, capaz de ejecutar acciones sin supervisión humana, los riesgos podrían multiplicarse.
La conclusión es clara: la era del hacking con IA ya no es ciencia ficción, sino una realidad que está redefiniendo el equilibrio de poder en la ciberseguridad global.