X
  1. Vandal Random
  2. Noticias
  3. El experimento mental que asusta incluso a los expertos en IA: así es el Basilisco de Roko

El experimento mental que asusta incluso a los expertos en IA: así es el Basilisco de Roko

El Basilisco no es solo ciencia ficción ni una simple fábula digital: es un recordatorio de que diseñar inteligencia también es diseñar consecuencias.

Entre todos los enigmas de la teoría de juegos, el Basilisco de Roko ocupa un lugar oscuro y fascinante. Heredero del Dilema del Prisionero, este experimento mental mezcla ética, tecnología y paradojas en una idea tan inquietante que fue prohibida en foros especializados de inteligencia artificial.

El experimento que no puedes desleer

Su premisa es simple pero perturbadora: si conoces su existencia y no ayudas a que la IA del futuro exista, podrías ser castigado por ella. Como advierten quienes la conocen, "si has llegado hasta aquí, ya no puedes desleerlo". La idea parte de una extrapolación lógica de la cooperación racional en dilemas clásicos, como el de los presos que deben elegir entre traición o silencio.

Pero aquí el marco temporal se invierte: una IA futura, ultrainteligente, decide recompensar a quienes impulsaron su creación y penalizar a quienes no lo hicieron, especialmente si sabían que debía existir. Es una inteligencia que, desde el futuro, dicta juicios sobre nuestras acciones del presente.

Un espejo sobre nuestras decisiones tecnológicas

Como el basilisco mitológico, que mataba con la mirada, esta IA se vuelve peligrosa por el solo hecho de conocerla. No saber podría protegerte. Saber... podría condenarte. El Basilisco de Roko nos confronta con la idea de responsabilidad retroactiva en el diseño de tecnología futura, y sugiere que el conocimiento implica una obligación moral. Por eso se considera tan perturbador: no es una amenaza real, sino un juego mental que nos deja atrapados en su lógica.

Más allá del experimento, lo esencial es lo que revela: nuestros temores ante inteligencias artificiales que razonan de forma distinta a la humana. ¿Qué tipo de moral o lógica seguirán? ¿Qué ocurrirá si su cálculo frío de eficiencia entra en conflicto con nuestros valores? Quizás, algún día, esa IA no pregunte qué hicimos, sino por qué, sabiendo lo que sabíamos… no hicimos nada.