ChatGPT, psicólogo de cabecera para la generación Z: barato, rápido y sin juicio. Pero también sin licencia. Cada vez más jóvenes acuden a la inteligencia artificial en busca de consuelo emocional, apoyo psicológico o respuestas a malestares que antes se compartían en consulta.
Lo hacen desde la comodidad de casa, sin coste, sin esperas y, sobre todo, sin estigma. Sin embargo, este fenómeno plantea serias implicaciones éticas y legales que ya han encendido las alarmas de expertos y asociaciones de consumidores.
El confidente ChatGPT
Más de veinte organizaciones de defensa de derechos digitales y de los consumidores han presentado quejas formales ante la posibilidad de que los modelos de lenguaje como ChatGPT, Character.AI o las IA conversacionales de Meta estén incurriendo en una “práctica médica sin licencia”. Aunque ninguna de estas herramientas se presenta oficialmente como un sustituto clínico, los diálogos que generan reproducen —con sorprendente fluidez— la estructura y lenguaje de una terapia psicológica.
La generación Z ha abrazado esta forma de “autoayuda digital” con entusiasmo. Plataformas sociales están repletas de ejemplos de usuarios que acuden a bots con descripciones como “psicólogo experto” o “terapeuta empático” para hablar de ansiedad, traumas o rupturas afectivas. Lo que a ojos de muchos parece una solución accesible a un sistema de salud mental saturado y caro, es visto por otros como una peligrosa forma de pseudoterapia, apenas camuflada tras una interfaz amable.
El fenómeno no es exclusivo de Occidente. En China, la alternativa DeepSeek ofrecía desde su lanzamiento sesiones virtuales de ayuda psicológica 24/7, atrayendo a miles de jóvenes que no encontraban otra salida. En ambos casos, el patrón se repite: los usuarios buscan ayuda urgente y no ven problema en que esta llegue de un software sin regulación ni acreditación profesional. Como apunta un informe de The Guardian, el atractivo de estos bots es precisamente que no cuestan dinero, no juzgan y están siempre disponibles.
No está graduado ni es un profesional
Pero el verdadero riesgo no es que la IA carezca de licencia, sino que actúe como si la tuviera. Los diagnósticos erróneos, las recomendaciones fuera de contexto y las llamadas “alucinaciones” —respuestas falsas o incoherentes generadas por los modelos— no son poco frecuentes. La advertencia permanente de “este modelo puede cometer errores” parece una cláusula de exención de responsabilidad más que un aviso sincero sobre sus limitaciones técnicas.

Las empresas tecnológicas, por su parte, se blindan legalmente alegando que sus servicios son “puramente informativos” y que está prohibido crear bots que finjan ser médicos o psicólogos. Sin embargo, el diseño conversacional de muchos asistentes genera una ilusión de profesionalidad que ha llevado a algunos expertos a reclamar que se refuercen los controles, se supervise el uso terapéutico de estos modelos o incluso se prohíba su empleo como sustituto de la atención psicológica.