Las herramientas de inteligencia artificial como ChatGPT se han convertido en espacio de desahogo para millones de usuarios. Muchos comparten pensamientos íntimos, dudas existenciales o problemas emocionales sin pensar demasiado en lo que hay al otro lado. Pero según el propio Sam Altman, CEO de OpenAI, esa confianza ciega tiene un límite importante: no hay secreto profesional.
Sam Altman, CEO de OpenAI, lanza una advertencia: “ChatGPT no ofrece confidencialidad como un médico o un abogado”
Durante una charla en el pódcast This Past Weekend con Theo Von, Altman se mostró sincero y directo: “La gente joven, sobre todo, usa ChatGPT como si fuera un terapeuta. Le cuentan sus problemas más personales. Pero a diferencia de un psicólogo, un abogado o un médico, aún no hemos conseguido que exista un marco legal de confidencialidad para la IA”.
Mientras que las profesiones tradicionales están respaldadas por cláusulas legales que obligan a mantener en secreto la información compartida —como el historial médico, un diagnóstico o los detalles de un caso judicial—, con ChatGPT la historia es muy distinta. “Si alguien presenta una demanda, podríamos vernos obligados a entregar esos datos. Y creo que eso es un gran error”, reconoce Altman.
En otras palabras: lo que le cuentes a la IA, podría no quedarse solo entre tú y el modelo. Y esto abre la puerta a un dilema ético y legal aún sin resolver. Para Altman, la IA debería operar bajo los mismos estándares de privacidad que un terapeuta humano, pero reconoce que todavía no tienen claro cómo adaptar las leyes actuales a esa realidad.
Así, el CEO de OpenAI pone sobre la mesa una cuestión fundamental para el futuro de la inteligencia artificial: ¿cómo protegemos la intimidad de los usuarios en un mundo cada vez más automatizado?















