No hay confidencialidad legal cuando usas ChatGPT como terapeuta

A diferencia de las conversaciones con un médico, un abogado o un cura, las que ud tiene con ChatGPT no están protegidas por ninguna ley

En uno de esos momentos “no shit, Sherlock” del internet, Sam Altam -el CEO de OpenAI- le recordó a sus más de 500 millones de usuarios semanales que no existe ningún tipo de confidencialidad legal al usar ChatGPT. Ni de tipo médico, como la que usted tiene con su doctor, ni de tipo legal, como la que usted tiene con su abogado (o su cura). Todo lo que usted comparta con el algoritmo podría ser revelado en caso de una solicitud de carácter judicial.

El comentario surgió en respuesta a una pregunta realizada por Theo Von en su podcast This Past Weekend w/ Theo Von.

“People talk about the most personal shit in their lives to ChatGPT. People use it — young people, especially, use it — as a therapist, a life coach; having these relationship problems and [asking] ‘what should I do?’ And right now, if you talk to a therapist or a lawyer or a doctor about those problems, there’s legal privilege for it. There’s doctor-patient confidentiality, there’s legal confidentiality, whatever. And we haven’t figured that out yet for when you talk to ChatGPT.”

Y es que muchos usuarios, especialmente lo más jóvenes, comparten con los algoritmos de inteligencia artificial muchos de sus aspectos más íntimos pues se sienten más cómodos hablando con un algoritmo que con humano, pues sienten que el primero no los juzgará. Y aunque eso es cierto, parecen olvidar no sólo que estos algoritmos no están cubiertos por ninguna protección especial en materia de confidencialidad, sino que los datos que uno comparte en internet son, generalmente, utilizados para crear y perfeccionar perfiles que luego son  vendidos a terceros.

Así que la próxima vez que quiera compartir con ChatGPT (o Google) algo bien íntimo, piénselo.

 

Deja un comentario