El director ejecutivo de OpenAI, Sam Altman, adviertió a los usuarios de ChatGPT sobre la falta de protección legal en sus conversaciones. Es decir, en otras palabras, las consultas almacenadas en cada cuenta podrían ser, literalmente, usadas en contra del usuario en un caso legal.
La cláusula de confidencialidad existe en áreas como la medicina, la abogacía o la psicología en donde el profesional tiene la obligación de mantener privada la información del paciente/cliente. Pero, en el caso de ChatGPT, el secreto profesional no existe y toda la información personal de cada individuo puede ser divulgada.
Las declaraciones tuvieron lugar en el podcast This Past Weekend con Theo Von donde el joven empresario a cargo de OpenAI dijo: “Si hablas con ChatGPT sobre tus asuntos más sensibles y luego surge una demanda o algo similar, podríamos vernos obligados a presentar esa información”.

Un debate de cara al futuro
Según Altman, los usuarios deberían ser capaces de mantener los mismos privilegios con los que cuentan las demás profesiones. “Creo que eso es un desastre. Deberíamos tener el mismo concepto de privacidad para las conversaciones con IA que con un terapeuta”, agregó.
Frente a la dicotomía entre transparencia y cuidado del usuario, ChatGPT brinda una solución para blindar la información privada. Los chats que se encuentran con el historial desactivado o los que tengan una suscripción de pago, contarán con completa inmunidad ya que las conversaciones no son almacenadas y, por lo tanto, no pueden ser legalmente accesibles.
Este evento está causando debate y dividiendo las opiniones de juristas en pos y en contra de la privacidad de algo que pareciese tan sencillo. El gran avance de la IA en todos las dimensiones de nuestras vidas desequilibró la forma en que nos comportamos día a día. Y el aspecto jurídico no fue la excepción.
Tal vez te interese: ChatGPT, ¿el piloto espacial del futuro?