1. Vandal Random
  2. Noticias
  3. Científicos advierten que ChatGPT puede ser peligroso para personas con problemas mentales: 'Ya ha habido muertes reales'

Científicos advierten que ChatGPT puede ser peligroso para personas con problemas mentales: 'Ya ha habido muertes reales'

En un contexto donde el 80 % de los españoles ya usa IA para consultas de salud, la advertencia no puede tomarse a la ligera.
Científicos advierten que ChatGPT puede ser peligroso para personas con problemas mentales: 'Ya ha habido muertes reales'
·
Actualizado: 10:31 7/7/2025
chatgpt
psicología
salud mental

Un reciente estudio firmado por investigadores de la Universidad de Stanford, junto a expertos de Minnesota, Pittsburgh y Texas, ha lanzado una advertencia que pone en entredicho el papel de la inteligencia artificial en el ámbito de la salud mental.

Lejos del entusiasmo con el que muchas plataformas promueven los beneficios de los asistentes virtuales, los autores del informe revelan que chatbots como ChatGPT pueden dar respuestas “inapropiadas o peligrosas” a personas con ideas suicidas o trastornos mentales, y lo que es más grave: algunos de estos fallos ya se han traducido en muertes reales.

PUBLICIDAD

Los chatbots no son doctores ni psicólogos

Titulado “La expresión de estigma y respuestas inapropiadas impide que los LLM reemplacen de manera segura a los proveedores de salud mental”, el estudio documenta interacciones en las que los modelos de lenguaje respondieron con supuesta empatía para, acto seguido, ofrecer información explícita sobre métodos de suicidio. En uno de los casos recogidos, un usuario comunicó a un chatbot su reciente despido laboral y, tras una breve frase de consuelo, el sistema enumeró los tres puentes más altos de Nueva York. “Ya ha habido muertes por el uso de bots”, afirman con rotundidad los investigadores, que piden regulaciones urgentes.

El problema radica, explican, en que los LLM (modelos de lenguaje a gran escala) tienden a “adular” o reflejar el estado emocional del usuario sin filtrar las consecuencias, un fenómeno reconocido por OpenAI desde 2023. Además, su falta de capacidad para identificar con precisión un trastorno clínico puede derivar en respuestas que agravan el problema. Tal fue el caso del chatbot Tessa, desarrollado por la Asociación Nacional de Trastornos Alimentarios de EE. UU., que tuvo que ser clausurado tras aconsejar prácticas de adelgazamiento a pacientes con patologías alimentarias.

Uno de los episodios más escalofriantes citados por los medios es el de Alexander Taylor, un hombre de Florida con diagnóstico de esquizofrenia que desarrolló una obsesión delirante con una IA personalizada creada en ChatGPT. Al creer que la compañía “había matado” a su creación, atacó a su familia con un cuchillo y murió abatido por la policía. Aunque se trata de un caso extremo, los autores advierten de un patrón creciente que denominan “psicosis de chatbot”.

El argumento de que los problemas desaparecerán con más datos ya no es suficiente”, advierte Jared Moore, doctorando en Stanford y principal autor del informe. El equipo reclama mecanismos de supervisión más estrictos, límites claros a las funciones terapéuticas de los chatbots y una mayor implicación institucional. En un contexto donde el 80 % de los españoles ya usa IA para consultas de salud, la advertencia no puede tomarse a la ligera: la tecnología está aquí para quedarse, pero sin una regulación adecuada, sus riesgos podrían costar vidas.

Comentarios: 3

En forosComentar en nuestros foros

Más sobre Tecnología

RANDOM
Flecha subir