1. Vandal Random
  2. Noticias
  3. Sam Altman de OpenAI confirma lo que todos temen con la inteligencia artificial: 'Ojalá no tuviera que decir esto...'

Sam Altman de OpenAI confirma lo que todos temen con la inteligencia artificial: 'Ojalá no tuviera que decir esto...'

La prometida IA de código abierto sufre un nuevo retraso: persisten las dudas sobre sus riesgos. Sam Altman no lo ve del todo claro.
Sam Altman de OpenAI confirma lo que todos temen con la inteligencia artificial: 'Ojalá no tuviera que decir esto...'
·
Actualizado: 7:41 18/7/2025
chatgpt
industria
sam altman

Durante semanas, los focos del mundo tecnológico, más allá de las ofensivas de Mark Zuckerberg, han estado apuntando a OpenAI. La compañía de Sam Altman tenía entre manos algo grande: un modelo de inteligencia artificial de código abierto que prometía cambiar las reglas del juego. Un sistema abierto, accesible, que cualquier usuario podría utilizar, modificar y hasta entrenar por su cuenta. Un paso audaz, sin duda.

Pero justo cuando parecía que su lanzamiento era inminente, Altman, bastante atrevido y positivo en sus declaraciones, ha optado por echar el freno. "Siento ser portador de malas noticias, pero necesitamos algo más de tiempo", reconocía en X (la red social antes conocida como Twitter). El motivo: aún no tienen claro que el modelo sea seguro.

OpenAI pisa el freno en el lanzamiento de su esperada IA libre: Sam Altman tiene dudas sobre los riesgos

Y es que esta IA, que todavía no tiene nombre definitivo, suponía una ruptura radical con el enfoque habitual de la compañía. Hasta ahora, herramientas como ChatGPT funcionaban en entornos completamente cerrados, alojadas en los servidores de OpenAI y lejos del alcance directo del usuario. Pero con esta nueva propuesta, los célebres "pesos" —la esencia del modelo— pasarían a manos de la comunidad.

Sam Altman y OpenAI

El propio Altman lo resumía con una frase que pesa como una losa: “Una vez los pesos están fuera, no se pueden recuperar”. Porque, claro, abrir el modelo es liberar también todo su potencial. Para bien y para mal. Y teniendo en cuenta qué ha ocurrido en el pasado no es mala idea.

El equipo ha preferido ser cauto y volver a la mesa de pruebas, revisar protocolos de seguridad y valorar hasta qué punto podrían surgir consecuencias no deseadas. ¿El problema? Esta es la segunda vez que posponen el lanzamiento, y ya hay quienes se preguntan si OpenAI está realmente preparada para cruzar esa línea.

PUBLICIDAD

La cuestión de fondo no es nueva: el eterno debate entre lo abierto y lo cerrado. Mientras compañías como OpenAI o Anthropic prefieren mantener un control estricto de sus modelos —generalmente bajo suscripciones de pago—, otras como Meta han apostado por el código abierto, permitiendo a cualquiera toquetear sus modelos y adaptarlos a sus necesidades.

El equipo ha preferido ser cauto y volver a la mesa de pruebas, revisar protocolos de seguridad

Detrás de todo esto hay una pregunta clave: ¿quién debe tener acceso al poder de la inteligencia artificial? Lo que nos lleva a otras igualmente interesantes: ¿Solo los gigantes tecnológicos y los gobiernos? ¿O también cualquier desarrollador independiente con un portátil y algo de talento?

No hay una respuesta clara. El código cerrado ofrece estabilidad y fiabilidad, algo muy valorado en sectores críticos. Pero también puede generar desigualdad: una especie de brecha digital que deja fuera a muchos. Por su parte, el enfoque abierto acelera la innovación, democratiza el acceso y fomenta la colaboración, pero conlleva riesgos evidentes si cae en las manos equivocadas. Por eso, esta esperada IA sigue en pausa. OpenAI camina por una delgada cuerda: quiere ofrecer una herramienta poderosa a su comunidad, pero sin abrir la caja de Pandora. El equilibrio no es fácil… y de momento, toca esperar.

Comentarios: 0

En forosComentar en nuestros foros

Más sobre Tecnología

RANDOM
Flecha subir