X
  1. Vandal Random
  2. Noticias
  3. Sam Altman de OpenAI, confirma lo que todos temen: 'No deberíamos confiar tanto en una tecnología que alucina como la IA'

Sam Altman de OpenAI, confirma lo que todos temen: 'No deberíamos confiar tanto en una tecnología que alucina como la IA'

El ejecutivo de OpenAI, bastante positivo en sus pensamientos por la IA, advierte que el uso masivo de la herramienta podría alimentar la desinformación si no se contrastan los datos generados.

Sam Altman, CEO de OpenAI, ha aprovechado el micrófono del pódcast oficial de su compañía para dejar caer una advertencia que, según él mismo, no puede tomarse a la ligera: la inteligencia artificial, por útil que sea, no es infalible. En sus palabras, confiar ciegamente en sistemas como ChatGPT es un error que puede tener consecuencias peligrosas si no se aplica un filtro crítico.

A Altman le fascina el impacto de la IA en el mercado laboral y su potencial transformador, pero insiste en que no puede convertirse en el oráculo de la verdad absoluta, y menos cuando pueden derivar en comportamientos extraños. Durante su charla con el tecnólogo Andrew Mayne, subrayó un fenómeno preocupante: la gente deposita una fe desmedida en estas plataformas, ignorando que aún "alucinan" —es decir, generan respuestas erróneas o completamente inventadas con total convicción.

Sam Altman lanza una advertencia inquietante sobre la IA: "No deberíamos confiar tanto en una tecnología que alucina"

"La gente cree en ChatGPT más de lo que debería, y eso es peligroso", aseguró Altman, en la línea de otros gurús de la tecnología. Por eso, su consejo es sencillo: consultar siempre varias fuentes, priorizar las oficiales, y recordar que la IA no reemplaza el juicio humano, sino que lo complementa. Es una simbiosis que hay que aprovechar.

Altman no está solo en esta cruzada por un uso más racional de la tecnología. En múltiples entrevistas ha reiterado la necesidad de mantener una relación saludable con la IA, y de ser conscientes de sus limitaciones.

Los modelos actuales, por muy potentes que parezcan, pueden ofrecer datos incorrectos sin previo aviso. La causa está en la naturaleza de su entrenamiento: predicción estadística de secuencias lingüísticas, no conocimiento real.

"La gente cree en ChatGPT más de lo que debería, y eso es peligroso"

Con millones de usuarios incorporando ChatGPT a sus rutinas diarias —para redactar informes, hacer deberes o incluso tomar decisiones médicas o legales—, Altman teme que el entusiasmo se transforme en desinformación masiva si nadie verifica lo que lee, y eso, aunque suene exagerado, es un problema enorme para la civilización. Por eso insiste: hay que exigir que las respuestas de estos sistemas estén respaldadas por fuentes fiables, y asumir que se trata de una herramienta, no de un experto. Comparó su uso con el de un buscador de internet o una red social: útiles, pero también susceptibles a errores, sesgos o manipulaciones.

Finalmente, Altman se refirió a los principios fundacionales de OpenAI y aquellos que marcan el camino de la empresa en el futuro. Recalcó que cualquier intento de monetización —ya sea con anuncios o funciones premium— deberá hacerse de forma transparente y sin comprometer la neutralidad del sistema. "Manipular el modelo para favorecer a quien pague más destruiría la confianza de los usuarios", concluyó.