Un nuevo estudio de Cisco ha dejado a la industria tecnológica con una conmoción enorme. Los sistemas de defensa para inteligencia artificial que parecían impenetrables tienen un fallo tremendo. Los modelos de IA bloquean con éxito el 87 por ciento de los ataques cuando son simples y directos, pero esa efectividad se desploma hasta apenas el 8 por ciento cuando los hackers no se rinden a la primera y siguen atacando con técnicas diferentes en cada intento. El informe confirma que la persistencia es la clave para romper cualquier defensa de inteligencia artificial actual.
Los investigadores de Cisco probaron diferentes modelos de IA frente a los ataques multi-turno, una técnica donde el hacker no se rinde tras el primer bloqueo y sigue intentándolo con variaciones del ataque original. Los resultados fueron arrolladores para la industria porque demostraron que casi cualquier sistema actual puede caer si el atacante tiene paciencia. En el primer intento, los sistemas de defensa funcionan bien y frenan la mayoría de las amenazas. Pero cuando el atacante cambia su estrategia y vuelve a intentarlo una segunda, tercera o cuarta vez, las defensas empiezan a fallar de forma catastrófica.
Los expertos explican que esto ocurre porque los sistemas de IA actuales están diseñados para detectar patrones específicos, pero no pueden adaptarse con la misma rapidez que un humano cuando los ataques van cambiando. Un hacker que ajusta su código malicioso ligeramente en cada intento puede burlar los filtros sin demasiado esfuerzo. Google ya había advertido sobre malware que se reescribe solo, y este estudio de Cisco confirma que las defensas tradicionales de inteligencia artificial simplemente no están preparadas para ese tipo de amenazas evolutivas.
Las empresas gastan millones en una protección de dudosa efectividad
Lo más preocupante del estudio es que la mayoría de las empresas confían en estos sistemas de defensa sin conocer sus limitaciones reales. Compañías que gastan millones en proteger sus modelos de IA asumen que están seguras porque bloquean la mayoría de ataques. Sin embargo, Cisco demuestra que esa seguridad es ilusoria cuando te enfrentas a atacantes profesionales que saben cómo funcionan estos sistemas. Los hackers más sofisticados, especialmente grupos estatales de países como China, Rusia, Irán o Corea del Norte, conocen perfectamente estas debilidades y las explotan sin piedad.
El informe concluye que la industria necesita repensar completamente cómo defiende sus sistemas de inteligencia artificial. Los métodos actuales que detectan patrones estáticos ya no sirven frente a amenazas que evolucionan en tiempo real. Las empresas deberán invertir en sistemas de defensa que puedan aprender y adaptarse con la misma velocidad que los atacantes. Mientras tanto, los expertos en seguridad advierten que ningún sistema de IA es realmente seguro si el atacante tiene suficiente tiempo y recursos para seguir intentándolo hasta encontrar el punto débil.