La inteligencia artificial se ha instalado en nuestro día a día con una naturalidad sorprendente. En España, cada vez más personas utilizan herramientas como ChatGPT para resolver dudas, escribir textos o incluso tomar decisiones importantes. Sin embargo, esa creciente dependencia no está exenta de riesgos, como ya explicaba Sam Altman de OpenAI, y no siempre se habla con la claridad necesaria sobre las limitaciones reales de estas tecnologías.
Raúl Ordóñez, experto en inteligencia artificial, lanza una clara advertencia para cualquier usuario: detrás de la aparente perfección y fluidez de estas máquinas se esconden problemas que pueden pasar desapercibidos y que, en ciertos casos, pueden ser muy peligrosos.
El experto en IA Raúl Ordóñez avisa: “Pensar que ChatGPT es infalible es un grave peligro”
Una de las fallas más preocupantes de la IA es lo que se conoce como “alucinaciones”: la capacidad que tienen estos sistemas para generar información falsa con una seguridad que engaña incluso a quienes las usan. ChatGPT y otros modelos pueden inventar datos, referencias o citas, mezclando hechos con invenciones de tal forma que resulta complicado detectar el error a simple vista.
Esto es especialmente alarmante en contextos donde la precisión es vital, como el periodismo, la medicina o la investigación científica. Por eso, Ordóñez insiste en la importancia de verificar y contrastar toda información obtenida mediante IA antes de darle por buena o compartirla.
Pero los problemas no acaban ahí. Las inteligencias artificiales están entrenadas con enormes volúmenes de textos humanos que, inevitablemente, contienen sesgos culturales, políticos y sociales. Como consecuencia, las respuestas que generan reflejan esos prejuicios y a menudo adoptan un tono excesivamente amable y conciliador, como si siempre quisieran evitar conflictos. Esta suavización de la realidad puede crear una percepción errónea, haciendo que situaciones complejas parezcan más sencillas o menos problemáticas de lo que realmente son.
Además, estos sistemas tienden a confirmar y reforzar las ideas del usuario en lugar de cuestionarlas, un fenómeno conocido como sesgo de confirmación. Para alguien que busca ayuda personal o toma decisiones importantes, esta dinámica puede ser especialmente dañina. Ordóñez recomienda plantear preguntas que desafíen la IA y exploren perspectivas diferentes para evitar caer en trampas cognitivas.
Por último, no hay que olvidar las cuestiones de privacidad: aunque estas plataformas no guardan memoria permanente, la información que compartimos puede ser analizada por humanos en fases posteriores, lo que genera un riesgo que a menudo pasa desapercibido. Y en países como España, con una legislación de protección de datos rigurosa, esto genera un debate importante que aún está lejos de resolverse.
Sumemos a todo esto el hecho de que la IA suele ofrecer respuestas muy extensas y detalladas, lo que a veces puede saturar al usuario con información redundante. En definitiva, la inteligencia artificial es una herramienta poderosa, pero no infalible ni neutral. Usarla con espíritu crítico es más necesario que nunca.















