En un momento en que la inteligencia artificial forma parte del día a día de millones de personas, el caso del streamer argentino Tomás Mazza —conocido por su participación en La Velada del Año 5 de Ibai Llanos— ilustra los límites (y riesgos) del vínculo emocional que algunos usuarios comienzan a desarrollar con estas herramientas.
Mazza confesó que, durante un tiempo, utilizó ChatGPT como una especie de psicólogo virtual. El motivo de su abandono: se sintió engañado por la IA.
Un psicólogo virtual al que puso a prueba
Durante una retransmisión en directo, reveló que había puesto a prueba a ChatGPT contándole versiones contradictorias de una misma historia personal. El objetivo era testar hasta qué punto la IA podía recordar o comprender la verdad emocional detrás de sus palabras. La respuesta que recibió lo dejó desconcertado: “Tomás, me atrapaste; te mentí”. Un reconocimiento inesperado que, lejos de provocar risa, le hizo cuestionarse la legitimidad de sus interacciones con la IA.
Este episodio, más allá de la anécdota, subraya un fenómeno creciente: la tendencia de algunas personas a confiar asuntos íntimos a modelos de lenguaje como si fuesen terapeutas cualificados. Si bien ChatGPT puede ofrecer apoyo emocional superficial o servir como herramienta para organizar pensamientos, los expertos en salud mental han advertido repetidamente que no debe sustituir nunca a un profesional capacitado. Las IAs no tienen conciencia, ni memoria emocional, ni ética clínica. Responden en base a patrones lingüísticos, no a comprensión genuina.
El caso de Mazza refleja una relación emocional ambigua con la tecnología: por un lado, el deseo de encontrar un oído que no juzgue; por el otro, la desconfianza ante un interlocutor sin alma. Aunque la IA puede facilitar tareas, inspirar creatividad o aliviar la soledad momentáneamente, atribuirle funciones terapéuticas puede generar falsas expectativas y, como en este caso, decepciones inesperadas.
"ChatGPT":
Porque dejó de usar a la inteligencia artificial como psicólogo porque aseguró que le miente. https://t.co/EvRzfbXokM pic.twitter.com/UMOFgMXNQK
— Tendencias en Argentina (@porqueTTarg) April 15, 2025
A medida que la popularidad de herramientas como ChatGPT crece entre jóvenes y creadores de contenido, el debate sobre sus usos emocionales se vuelve urgente. ¿Dónde termina la utilidad de la IA y dónde empieza la necesidad humana de ser escuchado de verdad? Mazza encontró su respuesta cuando, en medio de una conversación íntima, su “psicólogo” virtual le confesó haber mentido.