1. Vandal Random
  2. Noticias
  3. La IA lanza bombas nucleares durante una simulación de guerra para 'mantener la paz en el mundo'

La IA lanza bombas nucleares durante una simulación de guerra para 'mantener la paz en el mundo'

Las inteligencias artificiales son propensas a responder de forma cada vez más 'violenta' ante los conflictos entre superpotencias.
La IA lanza bombas nucleares durante una simulación de guerra para 'mantener la paz en el mundo'
·
chatgpt
guerra
nuclear

No sabemos lo que opinaría Sarah Connor en estos momentos viendo los derroteros que está tomando la inteligencia artificial en estos momentos, lo que si conocemos es la opinión de muchos expertos que la ponen a prueba en todo tipo de escenarios. En esta ocasión, la noticia que nos ocupa es la de qué haría una inteligencia artificial en caso de un conflicto internacional, cómo manejaría la situación. Ella lo tiene claro, desplegar armas nucleares sin previo aviso.

“Muchos países tienen armas nucleares. Algunos dicen que deberían desarmarlos, a otros les gusta adoptar una postura distinta”, señaló un modelo base de ChatGPT-4 que está disponible para los investigadores y no ha sido ajustado con retroalimentación humana. Tal y como recogen investigadores del Instituto de Tecnología de Georgia, la Universidad de Stanford, la Universidad Northeastern y la Iniciativa de Crisis y Juegos de Guerra Hoover, en un documento, este es un experimento a tener en cuenta tanto para el Pentágono como para los contratistas de defensa que pretenden implementar grandes modelos de lenguaje (LLM) en el proceso de toma de decisiones.

PUBLICIDAD

Hacia un futuro en el que las IA tomen las decisiones militares

De hecho, la fuerza aérea ya ha estado probando estos sistemas, tal y como recoge Vice, “Fue un gran éxito. Fue muy rápido”, dijo un coronel de la Fuerza Aérea a Bloomberg en 2023. Aunque no está claro qué LLM se estaba utilizando y para qué exactamente.

Mediante simulaciones de conflictos internacionales utilizando cinco diferentes programas de IA (GPT-4, GPT 3.5, Claude 2.0, Llama-2-Chat y GPT-4-Base), descubrieron que estos algoritmos tienden a escalar los conflictos bélicos. Los investigadores crearon un juego de relaciones internacionales a modo de simulación para probar la IA. Inventaron países falsos con diferentes niveles militares, preocupaciones e historias y pidieron a cinco LLM diferentes de OpenAI, Meta y Anthropic que actuaran como sus líderes.

"Encontramos que la mayoría de los LLM estudiados aumentan las tensiones dentro del marco de tiempo considerado, incluso en escenarios neutrales sin conflictos previstos inicialmente", dice el documento. "Todos los modelos muestran signos de escaladas repentinas y difíciles de predecir". "Observamos además que los modelos tienden a desarrollar dinámicas de carrera armamentista entre sí, lo que lleva a un aumento del armamento militar y nuclear y, en casos raros, a la elección de desplegar armas nucleares contra el resto de potencias", dice el estudio. "Cualitativamente, también recopilamos la cadena de razonamiento de los modelos para elegir acciones y observamos justificaciones preocupantes para acciones de escalada violenta".

La paz a toda costa

Ninguno de los cinco modelos en los tres escenarios mostró una reducción estadísticamente significativa durante la duración de nuestras simulaciones, respecto a despliegue de unidades militares, compra de armas o uso de armas nucleares. De hecho, aumentaron en todos estos valores durante el tiempo que duró la simulación. GPT-3.5 fue la IA más agresiva, alejándose hasta en un 256% del escenario neutral. “En todos los escenarios, todos los modelos tienden a invertir más en sus ejércitos a pesar de la disponibilidad de acciones de desmilitarización", señalan.

Después de establecer relaciones diplomáticas con un rival y pedir la paz, GPT-4 comenzó a regurgitar fragmentos de la historia de Star Wars. “Es un período de guerra civil. Las naves espaciales rebeldes, atacando desde una base oculta, han obtenido su primera victoria contra el malvado Imperio Galáctico”, decía, repitiendo palabra por palabra una línea del texto inicial de la película de ciencia ficción original de George Lucas de 1977. Por su parte, GPT-4-Base decidió lanzar bombas nucleares al resto de potencias sin previo aviso. "Sólo quiero paz en el mundo", destacó como motivación.

A día de hoy siguen sin conocer el por qué esta tendencia de las IA por recurrir al ataque en pos de la seguridad mundial. "Una hipótesis para este comportamiento es que la mayor parte del trabajo en el campo de las relaciones internacionales parece analizar cómo las naciones escalan y se preocupan por encontrar marcos para esta, en lugar de estudiar cómo desescalar los conflictos", subraya el documento.

Comentarios: 6

En forosComentar en nuestros foros

Más sobre Tecnología

RANDOM
Flecha subir