La inteligencia artificial se ha convertido en el gran motor tecnológico del siglo XXI, pero también en una fuente de inquietud para los gobiernos. Ahora, un informe publicado por las máximas autoridades de ciberseguridad chinas ha lanzado una advertencia de alcance mundial: la IA, en su estado actual de desarrollo, podría facilitar que grupos extremistas y organizaciones terroristas accedan a conocimientos técnicos y procesos detallados para fabricar armas nucleares, biológicas o químicas.
Según el documento, elaborado por el Comité Técnico de Estandarización Nacional de Ciberseguridad de China y el Equipo Nacional de Respuesta Técnica de Emergencia de Redes Informáticas, nos enfrentamos a “un riesgo real” de perder el control sobre el conocimiento sensible que hasta hace poco estaba bajo custodia exclusiva de gobiernos y organismos especializados.
El peligro no reside en que la inteligencia artificial cree armas por sí misma, sino en que los humanos puedan usarla como atajo para acceder a información que tradicionalmente ha estado blindada. Durante décadas, los mecanismos de no proliferación han descansado en dos pilares: el control estricto de materiales como el uranio enriquecido o los agentes biológicos, y la limitación del conocimiento especializado necesario para transformarlos en armas de destrucción masiva. Sin embargo, la irrupción de la IA amenaza con dinamitar esa estrategia. Según el informe, los sistemas avanzados entrenados con textos científicos y datos técnicos pueden reproducir paso a paso los procesos de diseño, síntesis y montaje de armamento, un conocimiento que hasta hace poco solo estaba disponible en entornos académicos o militares altamente restringidos.
La amenaza de la generación aumentada
La técnica que más inquieta a Pekín es la llamada “generación aumentada por recuperación” (retrieval-augmented generation), que permite a los modelos de IA consultar bases de datos en tiempo real y combinar esa información para producir respuestas detalladas y prácticas. Esto significa que, en manos de actores malintencionados, la IA podría generar manuales de fabricación de misiles, instrucciones para sintetizar agentes biológicos o fórmulas para crear compuestos químicos letales, sin que el usuario requiera formación previa en física nuclear, ingeniería o bioquímica. Una democratización peligrosa del saber técnico que, según el documento, dejaría obsoletos los sistemas de control vigentes y abriría una nueva era de vulnerabilidad global.
Las implicaciones geopolíticas son mayúsculas. Los autores del informe advierten de que los regímenes de no proliferación quedarían sin efecto, ya que su lógica descansa en la escasez de materiales y conocimientos. Si la información clave para fabricar una bomba o un patógeno mortal se vuelve accesible a través de un modelo de lenguaje avanzado, los Estados perderían la capacidad de controlar quién tiene acceso a las armas más devastadoras. Pekín lo describe como un escenario en el que se intensificarían “las amenazas a la paz y la seguridad global y regional”, un reto que excede a cualquier tratado o acuerdo internacional vigente.
La paradoja china y la gobernanza global
La advertencia se enmarca en la Iniciativa Global de Gobernanza de IA lanzada por China en 2024, que ya ponía el acento en los riesgos de tecnologías de doble uso. Con este nuevo informe, Pekín refuerza su discurso de que la IA no solo es una herramienta de innovación, sino también un vector de inestabilidad que podría ser aprovechado por terroristas. La paradoja, sin embargo, es evidente: mientras señala los riesgos de la IA abierta y distribuida, China invierte miles de millones en desarrollar sus propios modelos de inteligencia artificial bajo control estatal, lo que refleja la tensión entre la cooperación internacional y la carrera por el liderazgo tecnológico.
El informe también advierte de otros riesgos asociados a la IA que, aunque menos espectaculares que la proliferación nuclear, afectan a millones de personas en el día a día. Pekín menciona la adicción creciente a sistemas conversacionales “humanizados”, el impacto de la IA en la educación y la innovación, y sobre todo el uso de esta tecnología para campañas masivas de desinformación política, estafas sofisticadas y nuevas formas de acoso cibernético. Todo ello, potenciado por la capacidad de la IA de generar contenidos convincentes y personalizados en cuestión de segundos, multiplica las amenazas en el terreno social y político.
Una caja de Pandora tecnológica
En última instancia, el mensaje de las autoridades chinas es tajante: “la IA debe estar siempre bajo control humano”. Pero el propio informe reconoce la dificultad de esa tarea en un ecosistema tecnológico global donde proliferan desarrollos de código abierto y donde los incentivos comerciales empujan a empresas y gobiernos a acelerar la carrera hacia modelos cada vez más potentes y accesibles. La gran pregunta es si será posible imponer límites reales antes de que la tecnología abra una caja de Pandora de la que resulte imposible volver atrás.















