ChatGPT, el chatbot potenciando por inteligencia artificial, sigue demostrándonos por qué es la IA más avanzada y la que más capacidades o usos ilimitados tiene. El sistema, tan complejo que incluso Google le tiene miedo, estaría desarrollando habilidades para crear malware sofisticado o polimórfico. Es decir, la inteligencia artificial es capaz de programar código malicioso capaz de infectar a nuestro PC. ¿Se acerca la rebelión de las máquinas?
Un informe de seguridad alerta: ChatGPT está comenzando a programar malware
Ha sido la empresa de seguridad CyberArk, la que en un informe recientemente publicado, ha dado la voz de alarma: la inteligencia artificial de OpenAI es muy buena para desarrollar programas maliciosos capaces de arruinar o infectar cualquier dispositivo electrónico. Según los responsables de esta firma y varios consultores, este tipo de herramientas potenciadas por inteligencia artificial podrían cambiar las reglas del juego en lo que respecta al delito informático, potenciando los virus y códigos maliciosos. De momento, como remarcan algunos investigadores, la inteligencia artificial está en pañales, pero sigue avanzando a buen ritmo y los usuarios encuentran soluciones imaginativas a sus necesidades con ellas.
Los investigadores refuerzan la teoría de que el código desarrollado con la ayuda de ChatGPT, un malware de prueba, demostró capacidades avanzadas que podrían "evadir fácilmente los productos de seguridad". Es decir, este tipo de malware, conocido como polimórfico, es capaz de esconderse a los antivirus y a las medidas de seguridad comercializadas.
¿Cómo? Pues cambiando de apariencia, generando archivos de firmas a través de nuevas rutinas y escapando a los cifrados o firewall del sistema. Esta capacidad de adaptación conlleva que muchas soluciones antivirus o antimalware, que se basan en la detección basada en firmas, no sean capaces de hacerle frente o detenerlos.
ChatGPT tiene filtros para evitar este tipo de uso pernicioso pero no es suficiente
Que una IA sea capaz de programar un malware que puede cambiar de forma criptográficamente para sortear los mecanismos de seguridad tradicionales, es aterrador. En teoría, ChatGPT tiene una serie de filtros que impiden que la IA desarrolle programas peligrosos con capacidad de infección o replicación en otras computadoras, pero se pueden burlar. Los investigadores pudieron saltarse estas barreras insistiendo en las órdenes o buscando nuevas fórmulas de lenguaje en las órdenes a ejecutar, llevando a la IA al lugar en el que querían.
Insistiendo, explicaban desde CyberArk, se pueden condicionar al chatbot para que programe códigos con intenciones maliciosas específicas, que luego podrían usar para construir exploits complejos que evadían la defensa. Esto, en manos de programadores avanzados o de hackers, puede ser un motivo de preocupación. "Como hemos visto, el uso de la API de ChatGPT dentro del malware puede presentar desafíos importantes para los profesionales de la seguridad. Es importante recordar que este no es solo un escenario hipotético, sino una preocupación muy real”, concluían. Queda por ver si OpenAI refuerza su seguridad o de si se desarrollan sistemas de protección en este tipo de productos que pronto tendrán versiones avanzadas de pago.