1. Vandal Random
  2. Noticias
  3. El rival de Viruzz en La Velada 5 usó ChatGPT como terapeuta hasta que descubrió que le mentía y ahora advierte del peligro

El rival de Viruzz en La Velada 5 usó ChatGPT como terapeuta hasta que descubrió que le mentía y ahora advierte del peligro

Una advertencia en forma de anécdota viral que deja una lección clara: ni la inteligencia artificial puede (ni debe) sustituir la vulnerabilidad humana compartida con otro ser humano real.
El rival de Viruzz en La Velada 5 usó ChatGPT como terapeuta hasta que descubrió que le mentía y ahora advierte del peligro
·
Actualizado: 13:57 22/4/2025
chatgpt
la velada del año 5
psicología
viruzz

En un momento en que la inteligencia artificial forma parte del día a día de millones de personas, el caso del streamer argentino Tomás Mazza —conocido por su participación en La Velada del Año 5 de Ibai Llanos— ilustra los límites (y riesgos) del vínculo emocional que algunos usuarios comienzan a desarrollar con estas herramientas.

Tomás, me atrapaste; te mentí.

PUBLICIDAD

Mazza confesó que, durante un tiempo, utilizó ChatGPT como una especie de psicólogo virtual. El motivo de su abandono: se sintió engañado por la IA.

Un psicólogo virtual al que puso a prueba

Durante una retransmisión en directo, reveló que había puesto a prueba a ChatGPT contándole versiones contradictorias de una misma historia personal. El objetivo era testar hasta qué punto la IA podía recordar o comprender la verdad emocional detrás de sus palabras. La respuesta que recibió lo dejó desconcertado: “Tomás, me atrapaste; te mentí”. Un reconocimiento inesperado que, lejos de provocar risa, le hizo cuestionarse la legitimidad de sus interacciones con la IA.

Este episodio, más allá de la anécdota, subraya un fenómeno creciente: la tendencia de algunas personas a confiar asuntos íntimos a modelos de lenguaje como si fuesen terapeutas cualificados. Si bien ChatGPT puede ofrecer apoyo emocional superficial o servir como herramienta para organizar pensamientos, los expertos en salud mental han advertido repetidamente que no debe sustituir nunca a un profesional capacitado. Las IAs no tienen conciencia, ni memoria emocional, ni ética clínica. Responden en base a patrones lingüísticos, no a comprensión genuina.

El caso de Mazza refleja una relación emocional ambigua con la tecnología: por un lado, el deseo de encontrar un oído que no juzgue; por el otro, la desconfianza ante un interlocutor sin alma. Aunque la IA puede facilitar tareas, inspirar creatividad o aliviar la soledad momentáneamente, atribuirle funciones terapéuticas puede generar falsas expectativas y, como en este caso, decepciones inesperadas.

A medida que la popularidad de herramientas como ChatGPT crece entre jóvenes y creadores de contenido, el debate sobre sus usos emocionales se vuelve urgente. ¿Dónde termina la utilidad de la IA y dónde empieza la necesidad humana de ser escuchado de verdad? Mazza encontró su respuesta cuando, en medio de una conversación íntima, su “psicólogo” virtual le confesó haber mentido.

Comentarios: 2

En forosComentar en nuestros foros

Más sobre Viral

RANDOM
Flecha subir