La inteligencia artificial ha transformado radicalmente la forma en que interactuamos con la tecnología. Lo que antes requería días, ahora se resuelve en cuestión de segundos con un simple clic. Herramientas como ChatGPT se han colado en la rutina diaria de millones de personas, que no solo lo usan para escribir correos o resolver dudas complejas, sino también como guía emocional, confidente e incluso terapeuta. Y eso, según el propio CEO de OpenAI, Sam Altman, puede ser un problema.
Sam Altman lanza una advertencia: usar ChatGPT como psicólogo podría no ser tan buena idea
Sam Altman, máximo responsable de la empresa detrás de ChatGPT, lo ha dejado claro durante su reciente visita al pódcast del cómico estadounidense Theo Von: la privacidad en las conversaciones con la IA no está garantizada. Al ser preguntado por la falta de regulación legal en este terreno, Altman no se anduvo con rodeos: “La gente le cuenta al chat lo más personal de su vida. Lo usan como si fuera un psicólogo o un coach", añade.
"Y cuando haces eso con un terapeuta o un médico, tienes un marco legal que protege lo que dices. Aquí no", puntualiza, mientras indica el avance en los asistentes de IA de la empresa. El directivo admite que la industria aún no ha resuelto cómo asegurar ese nivel de confidencialidad. Porque, sencillamente, el marco legal que protege al paciente o al cliente en entornos profesionales aún no aplica a las inteligencias artificiales. Y eso, en plena expansión del uso de herramientas como ChatGPT, plantea una incógnita importante.
La intervención de Altman llega en un momento delicado para OpenAI. La compañía sigue inmersa en una dura batalla legal con el New York Times, que denunció en diciembre de 2023 a la empresa por supuestas infracciones relacionadas con el uso de su contenido. Desde OpenAI han respondido con dureza, acusando al periódico de llevar la demanda más allá de lo razonable.
En un comunicado publicado en junio en la web oficial de la empresa, la compañía cargaba contra la petición del diario de conservar de forma indefinida los datos de los usuarios: “El New York Times y otros demandantes han planteado una exigencia drástica e innecesaria: almacenar los chats de millones de usuarios de ChatGPT y de nuestra API, excepto los de clientes empresariales".
Desde la empresa de Altman insisten en que una mayor protección de la privacidad será clave para que la inteligencia artificial gane confianza a gran escala. Pero, por ahora, admiten que queda mucho camino por recorrer.















