- Sam Altman, CEO de OpenAI, advierte sobre la inexistencia de secreto profesional en ChatGPT.
- Las conversaciones con la IA pueden ser entregadas a una autoridad judicial si existe requerimiento legal.
- Usuarios confían información personal y sensible, sin estar protegidos por normas de confidencialidad tradicionales.
- No existe aún un marco legal que equipare la privacidad de la IA a la de médicos, abogados o terapeutas.

Las inteligencias artificiales han pasado de ser una curiosidad tecnológica a convertirse en auténticos confidentes virtuales para millones de personas. Sin embargo, esa confianza depositada en herramientas como ChatGPT puede acarrear riesgos no tan evidentes. Sam Altman, director ejecutivo de OpenAI, ha salido recientemente a la palestra para poner negro sobre blanco: ChatGPT no está amparado por ningún secreto profesional ni goza de las mismas garantías de confidencialidad que un médico, un abogado o un psicólogo.
Esta advertencia llega en un momento en el que muchos usuarios recurren a la IA para compartir problemas personales, dudas existenciales o incluso pedir consejo sobre situaciones delicadas. Lo cierto es que, aunque para muchos la IA sea un refugio anónimo, la realidad legal dista de esa percepción. En palabras del propio Altman, todo lo que se le cuente al chat “podría convertirse en prueba en un procedimiento judicial” si así lo exigiera una autoridad.
El aviso de Altman: ChatGPT y la confidencialidad

Sam Altman puso el foco en esta cuestión durante una reciente intervención en el pódcast This Past Weekend con el humorista Theo Von. Allí, el CEO de OpenAI fue claro: las conversaciones íntimas que mantienes con ChatGPT no cuentan con protección legal especial. Mientras que profesiones como la abogacía o la medicina están protegidas por el llamado secreto profesional, la IA se queda fuera de ese paraguas. “Si alguien inicia una demanda, podríamos vernos obligados a entregar los datos”, admitía Altman, subrayando la ausencia de un marco legal que otorgue ese nivel de privacidad a las herramientas de inteligencia artificial.
Según las políticas de privacidad de OpenAI, la empresa puede almacenar y, llegado el caso, entregar las conversaciones de los usuarios si existe un requerimiento legal. Es decir, lo que se cuente en el chat no necesariamente queda entre usuario y máquina: los juzgados pueden acceder a esos datos si consideran que es necesario para una investigación. Para entender mejor los riesgos, también puede ser interesante consultar el análisis en Psicología e inteligencia artificial: desafíos, riesgos y oportunidades en la era digital.
Esta advertencia adquiere aún mayor peso cuando se observa la tendencia creciente de utilizar ChatGPT como orientador emocional, psicólogo improvisado o confidente digital, especialmente entre la gente joven. Altman reconoce que muchos usuarios llegan a contarle “lo más personal de sus vidas” a la IA, y alerta: “Aún no hemos logrado garantizar la privacidad de esas conversaciones al nivel de un terapeuta”.
La frontera ética y la dependencia emocional
El escenario expuesto por Altman no es solo teórico. Ya existen antecedentes en los que información almacenada por grandes tecnológicas ha sido reclamada por los tribunales. Sin ir más lejos, se han dado casos con asistentes de voz en los que los jueces han exigido a las empresas la entrega de grabaciones para ayudar a resolver crímenes graves. En todos esos procesos, el interés judicial se ha impuesto sobre las normas internas de privacidad de las compañías.
Expertos en derecho tecnológico como Samuel Parra explican que, ante el mandato de un juez, las políticas de privacidad quedan relegadas. No importa si una empresa promete confidencialidad: si la ley lo demanda, los datos deben ser entregados, incluso si contienen información sensible. Esto ocurre en España y en la mayor parte del mundo occidental, aunque la regulación europea suele ser más estricta y hace falta orden judicial para acceder a información personal. Para ampliar información legal, puede consultarse .
Por tanto, conversaciones mantenidas en ChatGPT pueden convertirse en pruebas en investigaciones por delitos de cualquier índole, desde los más graves hasta fraudes económicos u otras actuaciones ilícitas. No hay una lista cerrada de delitos para los que se pueda pedir esa información; depende del criterio de la autoridad judicial, el contexto y los indicios existentes.