Aunque engañan al ojo humano, los deepfakes no son tan buenos (por ahora)
Los deepfakes, el contenido audiovisual generado con IA que imita la apariencia o la voz de una persona, ha pasado de ser una curiosidad tecnológica a convertirse en una amenaza real de fraude e identidad. Pero afortunadamente, el panorama parecería no ser tan crítico como se creía. Aunque la tecnología avanza y sus resultados se vuelven más realistas, algunos investigadores apuntan a que la evolución es más lenta de lo esperado, lo que por el momento mantiene a los defensores un paso adelante.
Un reciente estudio de investigadores del Foro Económico Mundial (WEF) difundido por DarkReading revisó 17 herramientas de deepfake, tanto de código abierto como comerciales, disponibles online entre 2024 y 2025. El objetivo era evaluar su capacidad para engañar sistemas de reconocimiento facial, especialmente dentro de procesos KYC (Know Your Customer) utilizados por bancos y servicios financieros para verificar la identidad de sus clientes. Si bien se encontró un puñado de herramientas potencialmente peligrosas, la mayoría resultaron ser “simples”, “baratas” y orientadas al entretenimiento, según la propia documentación de los desarrolladores y fuentes abiertas. Aun así, existía una minoría más preocupante con funciones suficientes para generar un fraude de identidad serio.
El investigador Tom Cross, de GetReal Security, advierte sobre un mercado donde estas herramientas ya se comercializan por valores entre 150 y 200 dólares por cuenta, apuntando a su uso en lavado de dinero y obtención de cuentas bancarias validadas vía KYC. A nivel técnico, los expertos clasifican la oferta actual en tres categorías: editores de video, servicios web y swappers en tiempo real vía webcam. Estos últimos son los verdaderamente críticos, al poder inyectar video falso durante una verificación en vivo. Según el WEF, solo 5 de 17 herramientas soportaban swapping en vivo y apenas 3 podían integrarse en flujos de video usados en procesos KYC, mostrando que la mayoría todavía falla en escenarios realistas.
No todos coinciden con la lectura más tranquilizadora. Para Dominic Forrest, CTO de iProov, el problema es mucho mayor: su empresa rastrea más de 120 herramientas activas, y asegura que en los últimos 18 a 20 meses la calidad ha avanzado al punto de engañar al ojo humano. Indicadores visuales que antes delataban el deepfake, como pedir a alguien que se quite lentes o gire la cabeza, ya no funcionan en muchas herramientas “serias”. La paradoja es que, aunque pueden vencer al ojo humano, no necesariamente logran engañar a software defensivo especializado.
Ahí reside el punto positivo: en este caso, los defensores van adelante. El WEF sostiene que existen decenas de técnicas para detectar deepfakes, desde flasheos temporales de pantalla que revelan inconsistencias luminosas, hasta el análisis de metadata contextual, pasando por enfoques de defensa en profundidad. Forrest atribuye la ventaja defensiva a un desequilibrio de información: los proveedores antifraude pueden estudiar cada ataque en detalle, mientras que el atacante solo obtiene un sí o no del sistema, sin aprender qué falló. En palabras del propio Forrest, es una batalla completamente desigual, y (al menos por ahora) las organizaciones están del lado ganador.


