Sam Altman advierte el peligro de contarle todo a ChatGPT: puede ser usado en tu contra en un juicio

El líder de OpenAI expresó sus inquietudes por la creciente relación de usuarios con la inteligencia artificial, señalando que algunos ya no toman decisiones sin consultar a estos asistentes

Guardar
El empresario es uno de
El empresario es uno de los mayores referentes en el desarrollo de esta tecnología. (Foto: REUTERS/Axel Schmidt)

En tiempos en los que los asistentes de inteligencia artificial se convierten en parte cotidiana de la vida digital, surge un nuevo motivo de alerta. Sam Altman, director ejecutivo de OpenAI, afirmó que las conversaciones mantenidas con ChatGPT pueden adquirir valor probatorio en procedimientos judiciales si una autoridad así lo requiere.

En un episodio reciente del podcast This Past Weekend, conducido por Theo Von, Altman puso el foco en la importancia de la privacidad y en los potenciales riesgos legales asociados al uso de la plataforma. “Si hablas sobre tus cosas más sensibles con el chat y luego hay una demanda, podríamos estar obligados a entregar eso”, dijo.

La compañía detrás de ChatGPT procesa más de 2.500 millones de consultas diarias y sostiene, en su política de privacidad, que recopila y almacena información de los usuarios, incluidas las conversaciones, para “cumplir con obligaciones legales”.

La compañía de IA procesa
La compañía de IA procesa millones de solicitudes cada día en su chatbot. (Foto: REUTERS/Dado Ruvic/Illustration/File Photo)

Esta cláusula coloca a OpenAI en una posición en la que, ante una solicitud judicial, podría verse forzada a entregar registros de diálogos privados, replicando el mismo escenario que ya ha involucrado a otras compañías tecnológicas en investigaciones pasadas.

Qué casos judiciales han recopilado datos de dispositivos para encontrar pruebas

El debate sobre la privacidad en plataformas tecnológicas no se limita a ChatGPT. Hace 10 años, el caso del asesinato de Victor Collins en Arkansas marcó un precedente.

La policía solicitó a Amazon la entrega de registros de audio de un dispositivo Echo, argumentando que podría contener pruebas relevantes. Inicialmente, Amazon se negó por razones de privacidad, pero luego accedió a liberar los registros tras el consentimiento del propietario del dispositivo.

Un episodio similar ocurrió en New Hampshire, donde una investigación por homicidio llevó a una orden judicial dirigida a Amazon para acceder a grabaciones almacenadas en la nube, así que la empresa cedió a la solicitud tras la intervención judicial.

La petición judicial debe ser
La petición judicial debe ser acatada por cualquier organización. (Imagen Ilustrativa Infobae)

Estos casos sentaron un precedente: ni Amazon, ni OpenAI, ni ninguna empresa puede resistirse a una orden formal que requiera datos vinculados a un proceso penal o civil.

Cuáles pueden ser las consecuencias legales de conversar con ChatGPT

Samuel Parra, abogado especializado en derecho tecnológico, según citó El Confidencial, dijo que “una conversación con ChatGPT puede ser objeto de solicitud por parte de la autoridad judicial, al igual que puede serlo una conversación en Instagram o un correo electrónico”.

El experto aclara que, en el caso de países como España, aunque existan políticas internas de confidencialidad, estas no prevalecen frente al deber de colaboración con la justicia.

Es una medida que aplica
Es una medida que aplica para todas las plataformas digitales. (Imagen Ilustrativa Infobae)

“No hay ningún derecho en nuestro ordenamiento que esté por encima de los demás. Si la autoridad judicial requiere información, aunque contenga datos sensibles y personales, ese ciudadano tiene que transigir, porque hay otro bien jurídico protegido, como puede ser la persecución de un delincuente”, detalla el jurista.

Por qué los usuarios deben considerar los riesgos judiciales al conversar con la IA

Aunque la idea de confidencialidad absoluta pueda resultar atractiva para la mayoría de usuarios, la realidad legal es distinta. Las empresas operan bajo regulaciones que las obligan a almacenar y, llegado el caso, entregar los contenidos cuando hay de por medio una orden judicial.

Altman, al advertir sobre la entrega potencial de los datos a autoridades, visibiliza hasta qué punto los límites de la privacidad alcanzan a quienes interactúan a diario con asistentes virtuales.

Otro detalle es saber que
Otro detalle es saber que la información de estas herramientas puede ser falsa. (Imagen Ilustrativa Infobae)

La política es común en todo el sector tecnológico; no existe una vía alternativa para las compañías cuando la justicia interviene. Las conversaciones pueden revelar información personal, datos sensibles y detalles de la vida privada que serían objeto de prueba en juicios, investigaciones criminales o litigios civiles.

Qué otros riesgos advierte Sam Altman sobre el uso masivo de ChatGPT

Altman en diferentes ocasiones ha enfatizado otra dimensión inquietante de la interacción con ChatGPT: la dependencia emocional y la delegación de decisiones.

“Hay gente joven que reconoce que no es capaz de tomar decisiones por sí mismo sin contarle a ChatGPT, me conoce a mí, a mis amigos, hago lo que me diga, eso me hace sentir mal”, describió Altman en la Conferencia de la Reserva Federal.

El fenómeno preocupa a especialistas y a los propios desarrolladores del sistema. La acumulación de datos íntimos y decisiones personales en los chats no solo implica un riesgo para la privacidad, sino que amplifica el alcance de la información que podría llegar a las autoridades si se judicializan los registros de la aplicación.