1. Vandal Random
  2. Noticias
  3. Roman Yampolskiy, gurú en seguridad de IA, refuta a Elon Musk: 'La probabilidad es casi absoluta, 99,999999%'

Roman Yampolskiy, gurú en seguridad de IA, refuta a Elon Musk: 'La probabilidad es casi absoluta, 99,999999%'

Mientras Elon Musk estima un riesgo del 10%, el especialista en inteligencia artificial Roman Yampolskiy advierte con contundencia que la probabilidad de que la IA nos supere roza el 99,999999%.
Roman Yampolskiy, gurú en seguridad de IA, refuta a Elon Musk: 'La probabilidad es casi absoluta, 99,999999%'
·
Actualizado: 8:31 25/6/2025

Roman Yampolskiy, investigador destacado en ciberseguridad y experto en inteligencia artificial, advierte con contundencia: la posibilidad de que una superinteligencia artificial supere a la humanidad y provoque su destrucción es casi una certeza, justo como Yoshua Bengio arrojaba hace unos días. La estimación de Yampolskiy es aún más ominosa, ya que según su “p(doom)”, la probabilidad de un desastre causado por la IA, alcanza un escalofriante 99,999999%.

Esta cifra choca con la visión más moderada de figuras como Elon Musk, quien sitúa el riesgo entre un 10% y un 20%. Musk, sin embargo, confía en que el impacto positivo de la IA puede superar los riesgos si se avanza con precaución, justo como aboga también Sam Altman.

Roman Yampolskiy, experto en seguridad de IA, contradice a Elon Musk: "La amenaza es prácticamente segura, 99,999999%"

Para Yampolskiy, director del Laboratorio de Ciberseguridad de la Universidad de Louisville, la amenaza es mucho más grave. Tras años estudiando sistemas autónomos y superinteligentes, sostiene que una vez que la IA pueda mejorarse a sí misma sin supervisión humana, la humanidad perderá su dominio sin posibilidad de retorno.

Experto en seguridad de IA

Musk, por su parte, ha subrayado en eventos como la Cumbre de la Abundancia el vertiginoso avance tecnológico y la posible escasez de recursos, como la electricidad, para sostener estos sistemas a gran escala, un aspecto que el magnate sudafricano siempre argumento. También ha cuestionado la falta de transparencia en desarrollos como GPT-4, enfatizando la necesidad de abrir estos proyectos al escrutinio público.

Muchos expertos destacan que el desastre con la IA es inevitable

La preocupación sobre la IA como riesgo existencial ya no es solo ficción: informes del New York Times reflejan que muchos expertos sitúan la probabilidad de un desastre provocado por IA entre el 5% y el 50%. Sin embargo, Yampolskiy cree que estas cifras subestiman el peligro real. El investigador insiste en que, tras superar la inteligencia humana, controlar una IA será casi imposible. Por ello, considera que el desarrollo de estas tecnologías debe paralizarse si no se puede garantizar un control absoluto.

PUBLICIDAD

Además, la IA se ha convertido en un campo de batalla geopolítico entre Estados Unidos y China. El control de chips avanzados, clave para entrenar IA, está sujeto a restricciones de exportación por parte de EE.UU., preocupado por usos militares adversos. A pesar de las dudas, Musk mantiene una visión optimista: la IA, y proyectos como su robot humanoide Optimus, podrían acabar siendo aliados valiosos, siempre que “sean amables con nosotros”, bromea con ironía.

Comentarios: 1

En forosComentar en nuestros foros

Más sobre Tecnología

RANDOM
Flecha subir