1. Vandal Random
  2. Noticias
  3. Sam Altman, CEO de OpenAI, advierte a las futuras generaciones: 'Mis hijos nunca serán más inteligentes que la IA'

Sam Altman, CEO de OpenAI, advierte a las futuras generaciones: 'Mis hijos nunca serán más inteligentes que la IA'

Su advertencia sirve como recordatorio de que, aunque la IA se vuelva más brillante, la supervisión crítica humana sigue siendo esencial. Por ahora.
Sam Altman, CEO de OpenAI, advierte a las futuras generaciones: 'Mis hijos nunca serán más inteligentes que la IA'
·
Actualizado: 14:58 3/7/2025
chatgpt
inteligencia articial
openai
sam altman

El director ejecutivo de OpenAI, Sam Altman, ha lanzado una de las declaraciones más contundentes sobre el impacto de la inteligencia artificial en las futuras generaciones: “Mis hijos nunca serán más inteligentes que la IA, y no les importará”.

Lo hizo durante un episodio del podcast oficial de OpenAI, donde abordó las implicaciones de criar hijos en un mundo dominado por tecnologías cada vez más autónomas e inteligentes. Altman, que recientemente se ha convertido en padre, reconoció incluso haber utilizado ChatGPT como herramienta de apoyo en la crianza de su bebé.

PUBLICIDAD

Un futuro en el que pensaremos mucho menos y nos dará igual

Este cambio de perspectiva —de desarrollador pionero a padre preocupado por el mundo que heredarán sus hijos— ha marcado un tono distinto en el discurso del empresario. Según Altman, los niños que nazcan a partir de ahora crecerán como “nativos de la IA”, un concepto que alude al hecho de que su aprendizaje y comprensión del mundo estará filtrado, mediado y potenciado por inteligencias artificiales desde sus primeros años. La comparación con los actuales “nativos digitales” se queda corta: no hablamos solo de manejar herramientas, sino de convivir con entidades más inteligentes que nosotros.

A la pregunta de cómo podrían sentirse las nuevas generaciones al no superar nunca la inteligencia de una máquina, Altman fue claro: “No creo que les moleste”. Esta afirmación plantea un escenario radicalmente distinto al paradigma que ha imperado en la historia humana: la superioridad cognitiva como rasgo distintivo del Homo sapiens. La resignación o aceptación ante una IA intelectualmente superior supone un punto de inflexión cultural y filosófico. Investigadores como Nick Bostrom o Max Tegmark ya han advertido que la normalización de una IA general superinteligente reconfigurará nociones como autoestima, agencia o propósito vital.

Altman no ocultó los peligros. Admitió que surgirán fenómenos complejos como las relaciones parasociales con IA, en las que las personas proyectan vínculos emocionales hacia entidades que no tienen conciencia. “Sospecho que no todo va a ser bueno. Habrá problemas”, sentenció. Estudios recientes, como el publicado en Nature Machine Intelligence en 2023, ya advertían del riesgo psicológico que implica atribuir intenciones o afecto a modelos conversacionales sin conciencia real.

En ese contexto, Altman fue especialmente crítico con la confianza ciega que muchas personas depositan en sistemas como ChatGPT: “La gente confía mucho en ChatGPT, lo cual es interesante, porque la IA alucina”. En efecto, la alucinación —la capacidad de generar respuestas falsas pero plausibles— sigue siendo uno de los mayores desafíos técnicos y éticos de los modelos generativos.

Comentarios: 0

En forosComentar en nuestros foros

Más sobre Tecnología

RANDOM
Flecha subir