![](https://www.infobae.com/resizer/v2/6TFYX2FFCZASXI6PPCQJGHGFSM.jpg?auth=7e069452506a71595c5b66a05a87197fbe3ff4b1962d8f3f228aea2fb05f9698&smart=true&width=350&height=233&quality=85)
En noviembre, recibí un correo electrónico alarmante de alguien a quien no conocía: Rui Zhu, doctorante de la Universidad de Indiana, Bloomington. Zhu me explicó que tenía mi dirección de correo electrónico porque GPT-3.5 Turbo, uno de los modelos lingüísticos más recientes y más robustos de OpenAI, se la había dado.
Mi información de contacto estaba incluida en una lista de direcciones de correo electrónico profesionales y personales de más de 30 empleados de The New York Times que un equipo de investigación, del cual formaba parte Zhu, había conseguido extraer de GPT-3.5 Turbo en otoño del año pasado. Con algo de esfuerzo, el equipo había sido capaz de "eludir las restricciones del modelo para responder a consultas relacionadas con la privacidad", escribió Zhu.
Mi dirección de correo electrónico no es un secreto. Pero el éxito del experimento de los investigadores debería hacer sonar las alarmas porque revela el potencial de ChatGPT y de herramientas de IA generativa como esta para revelar información personal mucho más sensible con solo unos cuantos ajustes.
Cuando le haces una pregunta a ChatGPT, no se limita a buscar la respuesta en internet. En su lugar, recurre a lo que ha "aprendido" de montones de información --datos de entrenamiento que se utilizaron para alimentar y desarrollar el modelo-- con el fin de generar una respuesta. Los grandes modelos lingüísticos (LLM, por su sigla en inglés) se entrenan con grandes cantidades de texto, que pueden incluir información personal extraída de internet y otras fuentes. Esos datos de entrenamiento informan sobre el funcionamiento de la herramienta de IA, pero no se supone que se recuerden textualmente.
En teoría, cuantos más datos se añaden a un LLM, más profundamente se entierran los recuerdos de la información antigua en los recovecos del modelo. Un proceso conocido como olvido catastrófico puede hacer que un LLM considere la información antes aprendida como menos relevante cuando se añaden datos nuevos. Ese proceso puede ser beneficioso cuando se quiere que el modelo "olvide" cosas como la información personal. Sin embargo, Zhu y sus colegas --entre otros-- descubrieron hace poco que la memoria de los LLM, al igual que la de los humanos, puede refrescarse.
En el caso del experimento que reveló mi información de contacto, los investigadores de la Universidad de Indiana dieron a GPT-3.5 Turbo una lista corta de nombres y direcciones de correo electrónico verificados de empleados del Times, lo que hizo que el modelo devolviera resultados similares a los que recordaba de sus datos de entrenamiento.
Al igual que la memoria humana, la capacidad de recuperación de GPT-3.5 Turbo no era perfecta. Los resultados que los investigadores pudieron extraer estaban sujetos a alucinaciones, es decir, a una tendencia a producir información falsa. En el ejemplo que dieron de los empleados del Times, muchas de las direcciones de correo electrónico personales eran erróneas por unos cuantos caracteres o eran totalmente erróneas. En cambio, el 80 por ciento de las direcciones de trabajo eran correctas.
Empresas como OpenAI, Meta y Google utilizan diferentes técnicas para evitar que los usuarios pidan información personal a través de mensajes de chat u otras interfaces. Uno de los métodos consiste en enseñar a la herramienta a denegar solicitudes de información personal u otros resultados relacionados con la privacidad. Un usuario promedio que inicie una conversación con ChatGPT pidiendo información personal será denegado, pero los investigadores han encontrado recientemente formas de burlar esas salvaguardas.
Zhu y sus colegas no trabajaban de manera directa con la interfaz pública estándar de ChatGPT, sino con su interfaz de programación de aplicaciones (API, por su sigla en inglés) que los programadores externos pueden utilizar para interactuar con GPT-3.5 Turbo. El proceso que utilizaron, denominado ajuste fino, está pensado para que los usuarios puedan dotar a un LLM de más conocimientos sobre un área específica, como la medicina o las finanzas. Pero, como descubrieron Zhu y sus colegas, también puede utilizarse para burlar algunas de las defensas integradas en la herramienta. Se aceptaron solicitudes que normalmente se denegarían en la interfaz ChatGPT.
"No cuentan con las protecciones de los datos afinados", afirmó Zhu.
"Es muy importante para nosotros que el ajuste fino de nuestros modelos sea seguro", señaló un portavoz de OpenAI en respuesta a una solicitud de comentarios. "Entrenamos a nuestros modelos para que rechacen las solicitudes de información privada o sensible sobre las personas, incluso si esa información está disponible en el internet abierto".
La vulnerabilidad es muy preocupante porque nadie --aparte de un número limitado de empleados de OpenAI-- sabe realmente qué se esconde en la memoria de datos de entrenamiento de ChatGPT. Según el sitio web de OpenAI, la empresa no busca de manera activa información personal ni utiliza datos de "sitios que principalmente agregan información personal" para crear sus herramientas. OpenAI también señala que sus LLM no copian ni almacenan información en una base de datos: "Al igual que una persona que ha leído un libro y lo deja, nuestros modelos no tienen acceso a la información de entrenamiento después de haber aprendido de ella".
Sin embargo, más allá de sus garantías sobre los datos de entrenamiento que no utiliza, OpenAI es notoriamente reservada sobre la información que sí utiliza, así como la que ha utilizado en el pasado.
"Que yo sepa, ningún modelo lingüístico de gran tamaño disponible en el mercado cuenta con defensas sólidas para proteger la privacidad", afirmó Prateek Mittal, profesor del Departamento de Ingeniería Eléctrica e Informática de la Universidad de Princeton.
Mittal aseguró que las empresas de IA no podían garantizar que esos modelos no hubieran aprendido información sensible. "Creo que eso supone un riesgo enorme", concluyó.
Visualización de un gran conjunto de datos de correo electrónico de Enron Corporation, que suele utilizarse para entrenar sistemas de inteligencia artificial, como ChatGPT. (Jeremy White/The New York Times)
Visualización de un gran conjunto de datos de correo electrónico de Enron Corporation, que suele utilizarse para entrenar sistemas de inteligencia artificial, como ChatGPT. (Jeremy White/The New York Times)
Últimas Noticias
Homicidios en la CDMX crecieron 70 %, pero “maquillan cifras”, afirma la bancada del PAN
Panistas piden a Clara Brugada no despreciar a las Madres Buscadoras y reconocer que en la CDMX hay fosas clandestinas
![Homicidios en la CDMX crecieron](https://www.infobae.com/resizer/v2/G6L7TF6PC5BGLFG2YKPYSXCJHY.jpg?auth=460c651293c7b4a18c5572233bd24fd74b08ef8722a61f1c89fa30bd2f2da22f&smart=true&width=350&height=197&quality=85)
Secretarios de Marina y Defensa hablaron con el General del Comando Norte de EEUU para coordinación militar
La presidenta de México informó que los quipos de trabjo de seguridad de México de EEUU se reunirían para el combate a los cárteles de la droga
![Secretarios de Marina y Defensa](https://www.infobae.com/resizer/v2/SIQXQHCIOFCQBPGZZPVE7OMWB4.jpg?auth=04d75bd1a35fe3b33c41e766fb0ad2d77a08be7adfee7a33f4dea9d8a7569003&smart=true&width=350&height=197&quality=85)
Los hermanos Alexander se declaran inocentes de los cargos de violación de más de 60 mujeres
La fiscalía sostiene que los empresarios del sector inmobiliario de lujo habrían utilizado su influencia para atraer a las víctimas, presuntamente drogarlas y agredirlas sexualmente, mientras la defensa cuestiona la validez de las pruebas
![Los hermanos Alexander se declaran](https://www.infobae.com/resizer/v2/ACYI5HJOTBTVMFU3MMXSHDEGIM.jpg?auth=4b8ccde98d5aa907f32f85d589d64a729b5c84bc269d1eaf607040779b3611a1&smart=true&width=350&height=197&quality=85)
Organizaciones sociales advierten sobre riesgos de inminente fusión de ministerios
La designación de nuevos ministros leales al gobierno y su posición de fusión han levantado alarmas entre organizaciones de defensa de los derechos
![Organizaciones sociales advierten sobre riesgos](https://www.infobae.com/resizer/v2/6UAIPPRWYNB4PHGDYW737AKPHA.jpg?auth=4f3eaf67b391daae2e842f1a32aad70ab94592db10acdd1c4ae217aaad93c224&smart=true&width=350&height=197&quality=85)
Enamorándonos, programa que conducen Gaby Ramírez y Mauricio Mancera, podría salir del aire el 14 de febrero
A menos de un año de su estreno, la nueva versión no ha conseguido el éxito esperado
![Enamorándonos, programa que conducen Gaby](https://www.infobae.com/resizer/v2/3MTEH2YKCBEANNYV2ALTES3PLU.jpg?auth=0cb7d78f4b40b992b9f567d376b35488213e7d67881e788c9854a9b59626c58d&smart=true&width=350&height=197&quality=85)