
Una imagen generada por inteligencia artificial puede parecer inofensiva. Un retrato estilo animé, una simulación de tu rostro como personaje de videojuego o una versión ilustrada de una selfie con amigos. Todo eso, desde la comodidad de un teléfono móvil, con solo subir una foto a ChatGPT.
Pero detrás de esa imagen se oculta un riesgo que muchos usuarios ignoran. No se trata de un virus ni de un robo inmediato, sino de algo más sutil: el uso y almacenamiento de tus datos personales.
Desde su lanzamiento en 2022, ChatGPT transformó la forma en que millones de personas se relacionan con la tecnología. Preguntar, escribir, resumir, analizar, ilustrar. Con cada actualización, sus capacidades se amplían.

La más reciente, GPT-4o, introdujo funciones de generación de imágenes, lo que provocó un nuevo fenómeno viral en redes sociales durante el último fin de semana. Miles de personas subieron fotos para obtener ilustraciones al estilo de Studio Ghibli. Lo que no muchos saben es que al hacerlo podrían estar cediendo, sin darse cuenta, información biométrica.
Cinco cosas que nunca deberías compartir con ChatGPT
Las plataformas de inteligencia artificial recopilan y procesan grandes volúmenes de datos. Para proteger tu privacidad y seguridad, es fundamental conocer qué tipo de información no debe ser compartida. Aquí te mostramos cinco ejemplos clave.
1. Imágenes con datos biométricos
Subir una foto tuya o de alguien más puede parecer una acción sin importancia. Pero si en la imagen se identifica claramente tu rostro, estás entregando datos biométricos que podrían ser utilizados para entrenar modelos, generar patrones faciales o incluso alimentar bases de datos sin tu conocimiento. Las imágenes que parecen juegos visuales pueden tener usos que van más allá del entretenimiento.

2. Datos personales
Tu número de identificación, tu fecha de nacimiento, tu dirección o las rutas que recorres habitualmente no deben ser parte de ninguna conversación con una IA. Estos datos permiten identificarte, rastrearte o incluso vulnerar tu seguridad. Aunque el sistema esté diseñado para proteger la información, no ofrece garantías absolutas.
3. Información médica
Resultados de análisis, diagnósticos o síntomas específicos no deberían compartirse con un chatbot. ChatGPT no es una herramienta médica certificada. No puede brindar diagnósticos reales ni reemplaza el consejo de un profesional. Además, esa información podría quedar almacenada o ser utilizada sin tu consentimiento en futuras actualizaciones o entrenamientos del modelo.

4. Datos bancarios
Números de tarjetas, claves de acceso, cuentas o transferencias son datos extremadamente sensibles. Compartirlos en una conversación con una IA, por más segura que parezca, representa un riesgo innecesario. Estos sistemas no están diseñados para manejar transacciones financieras y podrían ser blanco de ciberataques.
5. Información corporativa
Si usas la IA como asistente para tareas laborales, evita compartir documentos, estrategias internas, nombres de clientes o cualquier tipo de información confidencial de tu empresa. Aunque parezca útil para redactar un informe o preparar una presentación, podrías estar filtrando datos que comprometan la integridad del negocio.

Mantener un uso responsable con la IA marca la diferencia
La inteligencia artificial no es peligrosa por sí misma. El riesgo surge del uso despreocupado o inconsciente que hacen las personas. Cada vez que se comparte información en una herramienta como ChatGPT, esa información puede ser procesada, almacenada o reutilizada.
A veces con fines legítimos, como mejorar el sistema. Pero otras veces, el destino de esos datos escapa al control del usuario.
La clave está en la prevención. Ser consciente de qué compartes, por qué lo haces y qué podría pasar si esa información termina en manos equivocadas. La IA ofrece beneficios reales, pero también implica nuevas responsabilidades.
El uso responsable no significa dejar de usar estas herramientas. Significa aprender a usarlas con criterio. Porque la inteligencia no solo debe estar en el sistema, también en quien lo consulta.
ultimas
Cómo eliminar grasa y polvo de tus pantallas sin arruinarlas
Una mezcla segura, cero productos agresivos y el momento justo pueden garantizar una higiene eficaz sin comprometer el funcionamiento de tu smartphone, tableta, ordenador o televisor

La inteligencia artificial podría consumir el 5% de la electricidad en América Latina para 2035
Según la Olade, los 455 centros de datos de IA en la región están generando una demanda eléctrica que podría superar la capacidad de suministro en los próximos años

Cuál es el truco poco conocido en Android para bloquear WhatsApp con tu huella dactilar
A diferencia de las contraseñas o los patrones de desbloqueo, la huella dactilar no se pueden adivinar o copiar fácilmente

La promesa de la inteligencia artificial en la salud mental, ¿un avance verdadero o una ilusión tecnológica?
Aunque los resultados de Therabot muestran hitos importantes, la creciente industria de los bots terapéuticos plantea serias dudas sobre su preparación ética y técnica para tratar a pacientes vulnerables

Radiografía digital: qué hacen los argentinos en internet y en qué redes sociales pasan más tiempo
Un nuevo estudio reveló que pasamos casi 9 horas conectados a diario. WhatsApp, Instagram y Facebook, entre las plataformas más usadas
