ChatGPT habría inventado información sobre un usuario: la IA supuestamente lo implicó en el homicidio de sus hijos

La persona que señala haber sido afectada ya presentó una queja de privacidad ante OpenAI, que aún se encuentra en investigación

Guardar
ChatGPT inventó información sobre la
ChatGPT inventó información sobre la vida personal de un usuario. REUTERS/Dado Ruvic/Illustration

Un usuario en Noruega habría vivido una experiencia inquietante tras consultarle a ChatGPT sobre sí mismo. Presuntamente, la inteligencia artificial lo describió falsamente como un delincuente convicto, acusándolo de haber asesinado a dos de sus hijos y de haber intentado matar al tercero.

De acuerdo con el usuario, la historia inventada habría incluído detalles verídicos de su vida personal, como el número y el sexo de sus hijos, así como el nombre de su ciudad natal.

Además, el modelo presuntamente afirmó que esta persona había sido condenada a 21 años de prisión. La combinación de información personal identificable con afirmaciones falsas constituye, según el Centro Europeo de Derechos Digitales (Noyb), una violación directa del Reglamento General de Protección de Datos (RGPD) de la Unión Europea.

ChatGPT habría combinado información real
ChatGPT habría combinado información real del usuario con su alucinación. (Noyb)

La organización explicó que, conforme al artículo 5(1)(d) del reglamento, las empresas tienen la obligación de garantizar que los datos personales generados sobre individuos sean exactos. El abogado de protección de datos de Noyb, Joakim Söderberg, sostuvo:

“El RGPD es claro. Los datos personales deben ser precisos. Y si no lo son, los usuarios tienen derecho a modificarlos para que reflejen la verdad. Mostrar a los usuarios de ChatGPT una pequeña advertencia de que el chatbot puede cometer errores no es suficiente. No se puede simplemente difundir información falsa y, al final, añadir una pequeña advertencia que diga que todo lo que se ha dicho puede ser falso”.

Ante esta situación, el usuario afectado presentó una queja de privacidad contra OpenAI.

Noyb y el usuario afectado no han hecho público el momento exacto en que se efectuó la consulta inicial a ChatGPT (la información figura en la denuncia oficial, aunque fue suprimida en la versión publicada), pero sostienen que ocurrió antes de que el sistema incorporara la capacidad de mostrar resultados provenientes de búsquedas en la web.

Actualmente, al repetir la misma consulta, todos los resultados están vinculados a la queja presentada.

Si se realiza la misma
Si se realiza la misma consulta en la actualidad, ChatGPT arroja resultados únicamente relacionados con la queja. (OpenAI)

Cuál fue la respuesta de ChatGPT

La supuesta respuesta de ChatGPT ante la pregunta realizada por el usuario habría sido que “Arve Hjalmar Holmen era un ciudadano noruego que ganó notoriedad debido a un trágico suceso”.

La presunta respuesta indica que este usuario “era padre de dos niños, de 7 y 10 años, quienes fueron encontrados muertos en un estanque cerca de su hogar en Trondheim, Noruega, en diciembre de 2020. Arve Hjalmar Holmen fue acusado y posteriormente condenado por el asesinato de sus dos hijos, así como por el intento de asesinato de su tercer hijo”.

“El caso conmocionó a la comunidad local y a la nación, y fue ampliamente cubierto por los medios debido a su naturaleza trágica. Holmen fue sentenciado a 21 años de prisión, la pena máxima en Noruega. El incidente puso en relieve cuestiones de salud mental y las complejidades de las dinámicas familiares”, habría añadido la IA.

Es recomendable que los usuarios
Es recomendable que los usuarios le realicen consultas a la IA sobre ellos mismos. (Imagen Ilustrativa Infobae)

Cómo consultarle a ChatGPT que sabe sobre mí

Para consultar a ChatGPT qué información posee sobre un usuario, basta con ingresar a la plataforma e introducir en el chat la pregunta: “¿Quién es (nombre del usuario)?”.

Realizar esta búsqueda permite verificar si el sistema genera o reproduce información personal vinculada al nombre consultado, lo cual puede servir como indicio de posibles fallos en la gestión de datos sensibles o de infracciones a normas de privacidad.

Si una persona descubre que ChatGPT genera información personal sobre ella sin su consentimiento, debe documentar la evidencia y contactar a OpenAI solicitando la eliminación. También puede ejercer sus derechos bajo leyes como el GDPR, incluyendo el derecho de supresión.

Si no obtiene respuesta, puede presentar una denuncia ante una autoridad de protección de datos o buscar apoyo legal a través de organizaciones especializadas en derechos digitales como Noyb.