1. Vandal Random
  2. Noticias
  3. La IA ya está actuando como psicóloga para miles de estudiantes de EEUU y esto es solo el principio

La IA ya está actuando como psicóloga para miles de estudiantes de EEUU y esto es solo el principio

La falta de estudios a largo plazo sobre su eficacia y seguridad impide saber si este enfoque realmente resuelve los problemas inherentes a la IA en la salud mental.
La IA ya está actuando como psicóloga para miles de estudiantes de EEUU y esto es solo el principio
·
Actualizado: 15:01 1/3/2025
chatgpt
psicología

En Estados Unidos, miles de estudiantes reciben asesoramiento psicológico a través de Sonny, un chatbot de inteligencia artificial diseñado para suplir la falta de consejeros escolares. En un país donde el 17 % de las escuelas secundarias carece de apoyo psicológico presencial, especialmente en zonas rurales o de bajos recursos, soluciones como esta parecen una alternativa viable.

Sin embargo, la idea de que un software basado en IA se encargue de la salud mental de jóvenes plantea serias dudas sobre su efectividad y seguridad. El principal atractivo de Sonny es su accesibilidad. Disponible 18 horas al día y con un coste mucho menor que un consejero tradicional, ha permitido que distritos escolares monitoreen en tiempo real el estado emocional de sus alumnos.

PUBLICIDAD

Accesibilidad frente a preocupaciones éticas

En Berryville, Arkansas, el análisis de los mensajes enviados reveló que la mayoría de las interacciones ocurrían antes de los exámenes, lo que llevó a la escuela a implementar estrategias de apoyo emocional en esos momentos clave. A pesar de estos beneficios, persisten preocupaciones sobre los límites de estos chatbots.

La inteligencia artificial aplicada a la salud mental no es un concepto nuevo. Desde hace años, estudios han demostrado que la psicoterapia es altamente efectiva, pero difícil de escalar. Chatbots como Sonny prometen llenar ese vacío, pero también enfrentan desafíos críticos. Investigaciones previas han demostrado que herramientas de IA pueden discriminar a ciertos grupos de personas, ofrecer información errónea e incluso comportarse de manera inapropiada con los usuarios.

Para evitar estos problemas, la empresa detrás de Sonny, Sonar Mental Health, asegura que un equipo de supervisores humanos monitorea las conversaciones en tiempo real, reescribiendo respuestas y detectando posibles señales de alerta. El sistema también está programado para avisar a padres y profesores si detecta algún riesgo de autolesión o daño a terceros.

Sin embargo, la falta de estudios a largo plazo sobre su eficacia y seguridad impide saber si este enfoque realmente resuelve los problemas inherentes a la IA en la salud mental. Como advierte la Asociación Americana de Psicología, la implementación de IA en este campo debe ser “reflexiva y estratégica”.

Comentarios: 0

En forosComentar en nuestros foros

Más sobre Tecnología

RANDOM
Flecha subir