Lo que nunca debes escribir en ChatGPT para proteger tu privacidad

La creciente dependencia de ChatGPT y otras herramientas plantea nuevos retos para la protección de la privacidad digital

Guardar
Logo de Chatgpt.
Logo de Chatgpt.

Más de la mitad de los adultos estadounidenses (un 52 %) utiliza de forma habitual modelos de lenguaje grandes (LLM) como ChatGPT, y un tercio de ellos reconoce que ya es “demasiado dependiente” de estas herramientas para obtener respuestas, según un informe de la empresa de seguridad de aplicaciones Indusface.

El estudio también revela que el 38 % de los empleados en Estados Unidos ha compartido información laboral confidencial con sistemas de inteligencia artificial generativa (IAGen) sin la autorización de sus empleadores.

La investigación advierte que esta práctica plantea riesgos significativos para la privacidad y la seguridad de datos, tanto a nivel personal como empresarial. Indusface analizó cuáles son los tipos de información que los usuarios están compartiendo en exceso y cuáles deberían considerarse fuera de los límites cuando se interactúa con modelos de IA.

Lo que debes de saber
Lo que debes de saber sobre ChatGPT. REUTERS/Dado Ruvic/Illustration/File Photo

Archivos de trabajo y documentos internos

Uno de los casos más frecuentes es la inclusión de archivos laborales, como informes, presentaciones o borradores de proyectos. La encuesta señala que más del 80 % de los empleados en empresas del índice Fortune 500 usa IA para tareas como la redacción o mejora de textos corporativos.

Sin embargo, un 11 % de la información que se introduce en herramientas como ChatGPT es estrictamente confidencial, como estrategias comerciales internas. Los expertos recomiendan eliminar cualquier dato sensible antes de subir documentos, ya que los modelos pueden conservarlos de forma indefinida y, en algunos casos, podrían utilizarlos para responder a otros usuarios.

ChatGPT es empleado para la
ChatGPT es empleado para la redacción de textos. (Imagen ilustrativa Infobae)

Contraseñas y credenciales

Otro riesgo detectado es el ingreso de contraseñas o credenciales de acceso. Aunque las advertencias sobre no compartir claves son conocidas, el informe destaca que un 24 % de los encuestados almacena sus contraseñas en notas dentro de sus dispositivos, y un 18 % las guarda en navegadores.

En este sentido, Indusface subraya que los LLM no están diseñados con un enfoque de privacidad absoluta, sino para aprender de la información introducida. Por ello, incluir contraseñas en una consulta a la IA puede exponerlas a filtraciones o uso indebido.

No compartir contraseñas con ChatGPT.
No compartir contraseñas con ChatGPT. (Imagen ilustrativa Infobae)

Datos personales e identidad digital

El estudio también alerta sobre el riesgo de entregar datos como nombre completo, dirección o imágenes reconocibles. Aunque estos datos puedan parecer inocuos, su acumulación facilita delitos como el fraude o la suplantación de identidad.

Además, pueden emplearse para generar deepfakes, videos falsos que muestran a una persona diciendo o haciendo algo que nunca ocurrió. Esto no solo puede dañar la reputación individual, sino que, en un entorno corporativo, podría desencadenar acciones legales y pérdida de confianza si se ven afectados compañeros de trabajo o clientes.

Evitar proporcionar identidades de terceros
Evitar proporcionar identidades de terceros o documentación digital. (imagen Ilustrativa Infobae)

Información financiera

Los LLM pueden ser útiles para explicar conceptos económicos o interpretar reportes financieros básicos, pero Indusface advierte que no deben utilizarse para tomar decisiones empresariales en este ámbito.

La razón es que estas herramientas carecen de capacidades matemáticas precisas, lo que podría generar errores o conclusiones erróneas al procesar cifras. Ingresar información financiera sensible también expone a las empresas a riesgos de seguridad y fuga de datos estratégicos.

No compartir datos bancarios con
No compartir datos bancarios con la IA. (Imagen ilustrativa Infobae)

Código fuente y propiedad intelectual

En el sector tecnológico, muchos desarrolladores recurren a la IA para obtener asistencia en la programación. No obstante, el informe advierte que compartir el código base de una empresa implica un riesgo directo para su propiedad intelectual.

Los fragmentos de código introducidos en una plataforma de IA podrían ser almacenados, procesados o reutilizados para entrenar futuros modelos, con el riesgo de que información clave se haga accesible a terceros no autorizados.