¿Ransomware con mente propia? La amenaza que evoluciona para el 2026
El año 2026 podría marcar un antes y un después en el ransomware, y no precisamente para bien. Trend Micro advierte que los ciberdelincuentes (incluidos los grupos de ransomware) empezarán a apoyarse mucho más en los agentes de IA, una evolución de la IA generativa que otorga a los sistemas autonomía para ejecutar acciones sin intervención humana. Aunque hoy esta tecnología está mayormente en manos de grupos patrocinados por estados, la expectativa es que, una vez probada su eficacia, el crimen organizado la adopte con rapidez.
Según Trend Micro, los agentes de IA resultan especialmente atractivos para los atacantes ya que automatizan tareas que antes requerían trabajo manual y conocimientos técnicos. Máximo beneficio con el mínimo esfuerzo. Esta tecnología podría, por ejemplo, identificar una empresa, escanear sus vulnerabilidades, explotarlas y abrir una puerta trasera sin que nadie tenga que intervenir. Las herramientas necesarias para cada fase ya existen; solo falta conectarlas con un sistema capaz de razonar y tomar decisiones por sí mismo.
Aunque no veremos la automatización total de una campaña de ataque de la noche a la mañana, los primeros pasos ya están en marcha. Trend Micro prevé que el ransomware como servicio (RaaS) impulsado por IA permitirá a actores con muy poca experiencia llevar a cabo ataques complejos sin depender de afiliados expertos. Esto democratizará la capacidad ofensiva, ampliando el alcance del ransomware y fomentando operaciones independientes en el mercado clandestino. Incluso es posible que surja un nuevo negocio criminal: grupos más sofisticados ofreciendo servicios de agentes de IA al resto.
A medida que avanza la IA en los ciberataques, los defensores deberán adaptarse rápidamente. Los agentes de IA deberán ser tratados como cualquier otro usuario con acceso a sistemas críticos: privilegios mínimos, controles de acceso estrictos y una mentalidad que asuma que la brecha siempre es posible. Y ni siquiera será necesario atacar directamente a estos agentes para causar daño: la manipulación de la infraestructura o de módulos que interactúan con ellos podría bastar para desviar su comportamiento hacia acciones maliciosas sin levantar sospechas.
Una antecedente cercano reciente: malware que se reescribe solo
Un ejemplo que demuestra que el desarrollo de amenazas con IA no viene de la nada es el de PROMPTFLUX, descubierto recientemente por Google. Este malware, escrito en VBScript, emplea la API del modelo de IA Gemini para reescribir su propio código de manera periódica. Con esa técnica busca mejorar su ofuscación y evadir la detección tradicional, ajustando su comportamiento mientras se ejecuta.
La funcionalidad clave de PROMPTFLUX solicita a Gemini que regenere el código cada cierto tiempo, guardando la nueva versión ofuscada en la carpeta de inicio de Windows para mantener persistencia, e incluso intentando propagarse a unidades extraíbles o redes compartidas. Aunque actualmente el malware se encuentra en fase experimental y no hay evidencia de que haya comprometido sistemas reales, su diseño muestra la dirección del cibercrimen hacia el malware adaptativo y autónomo.
Ajustes normativos: leyes buscan frenar este avance de ataques con IA
Aunque un tanto tarde, se está comenzando a dar pasos concretos hacia la regulación del mal uso de la IA. Un caso concreto es el proyecto de ley de la AI Fraud Deterrence Act, presentado a fines de noviembre en la Cámara de Representantes de Estados Unidos. Según la propuesta, los delincuentes que usen herramientas de IA, como generadores de audio, video o texto falsos, para perpetrar fraudes o suplantaciones, enfrentarían multas elevadas (entre 1 y 2 millones de dólares) y penas de prisión de hasta 20–30 años en casos graves.
Además, para quienes usen IA para hacerse pasar por funcionarios públicos, algo que ha generado múltiples incidentes durante el último año, la sanción también sería dura: multas de hasta 1 millón de dólares y hasta 3 años de cárcel. Este tipo de iniciativa refleja una tendencia de los sistemas legales a actualizarse para hacer frente a los nuevos métodos de fraude digital, reconociendo que la IA no es solo una herramienta de innovación, sino también un riesgo real en manos equivocadas.



