Ciberseguridad e IA, una alianza cada vez más sofisticada (para el bien y para el mal)
Ya no es una novedad que la inteligencia artificial ha transformado por completo el panorama de la ciberseguridad. Cada avance trae consigo nuevas capacidades para detectar amenazas, automatizar defensas y analizar riesgos con una precisión sin precedentes. Sin embargo, estos mismos avances también potencian el arsenal de los ciberdelincuentes, que ahora pueden lanzar ataques más sofisticados, personalizados e impredecibles. La IA se convierte así en un arma de doble filo que redefine cómo se protege y vulnera el mundo digital.
Los agentes de IA del lado defensivo
Empresas como OpenAI y Google están demostrando que la IA puede asumir un papel activo y directo en la defensa digital. OpenAI lanzó hace unas semanas su modelo Aardvark. Actualmente en fase beta, el modelo tiene la capacidad de escanear repositorios de código (tanto open-source como privados) para detectar vulnerabilidades, analizarlas en función de su gravedad e incluso sugerir parches o remediaciones. Según la propia compañía, Aardvark identificó el 92 % de vulnerabilidades conocidas e introducidas de forma sintética en repositorios. Este tipo de aplicación puede liberar recursos humanos de tareas repetitivas o de alto volumen, permitiendo que los equipos de seguridad se concentren en amenazas más complejas o de mayor impacto.
Por otro lado, Google con su agente Big Sleep, resultado de la colaboración entre DeepMind y Google Project Zero, localizó recientemente cinco nuevas vulnerabilidades en el componente WebKit del navegador Safari, incluidos fallos de use-after‐free, desbordamientos de búfer y corrupción de memoria. Una vez detectadas, se publicaron las correcciones mediante las actualizaciones pertinentes de sistemas operativos de Apple, que también dio crédito al agente de IA. Además de detectar fallos, la IA puede ayudar a acelerar ciclos de respuesta para mitigar riesgos reales antes de que sean explotados.
Pero la sofisticación de IA también llega al adversario
El año 2025 ha traído consigo una alarmante evolución y sofisticación en el uso de la inteligencia artificial para fines maliciosos. Según Google Threat Intelligence Group (GTIG), se han detectado nuevas familias de malware que incorporan modelos de lenguaje de gran escala (LLM) durante su ejecución para modificar su propio código en tiempo real, una técnica denominada “just-in-time”. Un ejemplo es el dropper experimental llamado PromptFlux, que emplea la IA de Gemini para generar variantes ofuscadas de VBScript, buscando evadir software antivirus mediante un módulo interno que consulta repetidamente a Gemini para obtener nuevo código evasivo.
De modo aún más sofisticado, un grupo de hackers chino utilizó la IA de Anthropic, específicamente su herramienta Claude Code, para lanzar una campaña de espionaje automatizada a gran escala, conocida como GTG‑1002. En esta operación, el modelo de IA no se limitó a asistir sino que asumió tareas técnicas como el reconocimiento, descubrimiento de vulnerabilidades, explotación, movimiento lateral y exfiltración de datos. Según se informa, los actores utilizaron la IA para un 80 o 90% de las acciones operativas, dejando que los operadores humanos intervinieran solo en decisiones críticas.
Y por si esto no bastara, recientemente investigadores de Microsoft descubrieron el backdoor SesameOp, que utiliza la API de OpenAI Assistants como canal secreto de comando y control (C2). Es decir, aprovecha un servicio legítimo de IA para ocultar comunicaciones maliciosas, reduciendo la necesidad de infraestructura propia de los atacantes y dificultando su detección. Los comandos y la exfiltración de datos estaban ocultos dentro de flujos aparentemente normales, lo que nos brinda ejemplo claro de cómo la IA puede ser reprogramada para un uso malicioso.



