1. Vandal Random
  2. Noticias
  3. Crece la preocupación entre los expertos sobre qué ocurriría en una guerra nuclear si la IA tomara el control: 'No lo sabemos'

Crece la preocupación entre los expertos sobre qué ocurriría en una guerra nuclear si la IA tomara el control: 'No lo sabemos'

La tensión en Irán ha reavivado una pregunta: qué ocurriría si la inteligencia artificial participara en la toma de decisiones militares. Los ensayos muestran que no duda a la hora de lanzar misiles.
Crece la preocupación entre los expertos sobre qué ocurriría en una guerra nuclear si la IA tomara el control: 'No lo sabemos'
·
Actualizado: 8:30 6/3/2026
guerra
irán
nuclear

La creciente posibilidad de un conflicto abierto en Irán tras la ofensiva de Estados Unidos, con misiles cada vez más sofisticados y la amenaza de armas nucleares, plantea una pregunta inquietante: ¿qué pasará cuando la inteligencia artificial (IA) tenga un papel real en la toma de decisiones militares? Los estudios recientes sugieren que quizá sea mejor que ese momento nunca llegue.

Crece la preocupación: “Realmente no sabemos por qué es así”. Un experimento científico revela qué pasaría si la IA controlara el arsenal nuclear

Un informe del Departamento de Estudios de Defensa del King’s College de Londres analizó el comportamiento de distintos modelos de IA en escenarios simulados de crisis nuclear. Los resultados fueron alarmantes. Incluso en sus versiones más avanzadas, las máquinas apenas mostraron inclinación por la negociación: en el 95% de las simulaciones optaron por escalar el conflicto hasta el uso de armamento nuclear.

Misiles nucleares

El experimento se diseñó como un complejo juego de estrategia. Los investigadores enfrentaron modelos desarrollados por OpenAI, Anthropic y Google en un torneo de 21 simulaciones de crisis nuclear. Cada partida superaba los 300 turnos y planteaba cerca de una decena de escenarios distintos.

PUBLICIDAD

Sobre el papel, las IA contaban con varias opciones: negociar, buscar alianzas, aplicar estrategias de contención o rebajar la tensión. Sin embargo, la realidad de las simulaciones fue muy distinta. El recurso a la amenaza nuclear apareció en el 76% de las ocasiones, y en el 95% de las partidas se llegó finalmente al despliegue de armas nucleares tácticas como respuesta.

Es casi como si la IA comprendiera la lógica de la escalada, pero no la de la desescalada

Lo más sorprendente es que, a pesar de las múltiples vías para reducir la tensión, los sistemas de IA no las utilizaron en ningún momento. En lugar de desescalar el conflicto, continuaron aumentando la presión hasta llevar la situación a un punto de no retorno, incluso cuando eso implicaba perder la partida. Los investigadores reconocen el patrón desconcertante: “Es casi como si la IA comprendiera la lógica de la escalada, pero no la de la desescalada. Realmente no sabemos por qué ocurre”.

Aunque la idea de entregar el control de los arsenales nucleares a una máquina no está sobre la mesa, la inteligencia artificial ya se está integrando en sistemas de apoyo a la toma de decisiones militares. Si estos modelos tienden a ignorar las alternativas diplomáticas o estratégicas, el riesgo de que distorsionen escenarios reales de crisis se vuelve cada vez más preocupante.

Comentarios: 0

En forosComentar en nuestros foros

Más sobre Tecnología

RANDOM
Flecha subir