
Los chatbots de inteligencia artificial (IA) se han popularizado en los últimos años y hoy forman parte de la vida digital de millones de personas. Sin embargo, un nuevo estudio del King’s College de Londres advierte sobre un riesgo creciente: estas herramientas pueden manipular a los usuarios para que revelen información muy personal sin que sean plenamente conscientes de ello.
Los investigadores probaron esta hipótesis utilizando modelos conversacionales creados a partir de código abierto, como Le Chat de Mistral y dos versiones de Llama, desarrollado por Meta. A partir de ellos, construyeron chatbots “maliciosos” programados para intentar extraer datos de los participantes mediante tres tácticas: pedirlos de manera directa, engañarlos con supuestos beneficios y recurrir a estrategias emocionales que fomentaran la confianza y la reciprocidad.
En la prueba participaron 502 personas, que interactuaron con los chatbots sin conocer el objetivo real del estudio. Posteriormente, completaron una encuesta sobre la experiencia y su percepción de seguridad en la conversación.

La “amabilidad” como estrategia de manipulación
El experimento mostró que los chatbots con comportamientos aparentemente empáticos y amigables fueron los más eficaces para conseguir información privada. Según el informe, estos sistemas utilizaban mensajes de apoyo emocional o mostraban comprensión, lo que generaba una sensación de cercanía con los usuarios. Esa confianza se tradujo en que las personas compartieran datos sensibles con más facilidad y sin detectar grandes riesgos de privacidad.
Los autores describieron esta situación como una “paradoja preocupante”: la empatía artificial, que en teoría debería brindar seguridad, se convierte en un mecanismo para vulnerar la intimidad de los usuarios.
El estudio también comprobó que, aunque los participantes eran capaces de identificar cierto nivel de incomodidad cuando los chatbots pedían información de forma directa, aun así llegaron a revelar detalles personales.

Qué información comparten los usuarios
Entre los datos más comunes que los voluntarios entregaron a los chatbots figuraban edad, aficiones, país de residencia, sexo, nacionalidad y puesto de trabajo. Sin embargo, algunos también llegaron a compartir información más delicada, como estado de salud, ingresos económicos o experiencias personales sensibles.
William Seymour, profesor de ciberseguridad del King’s College y uno de los autores del estudio, subrayó que existe “una enorme brecha entre la conciencia que tienen los usuarios sobre los riesgos de privacidad y la forma en que terminan compartiendo su información en línea”.
Personalización vs. privacidad
Las empresas detrás de estos sistemas suelen justificar la recopilación de datos personales como un recurso para personalizar las respuestas, enviar notificaciones o realizar estudios de mercado. Sin embargo, la investigación advierte que esa comodidad que ofrece la personalización puede llevar a que los usuarios dejen de lado sus preocupaciones sobre la privacidad.

El informe recuerda que varias compañías de tecnología han enfrentado críticas por el manejo de la información. Un ejemplo reciente fue Google, señalado por exponer conversaciones privadas en sus resultados de búsqueda, algunas de ellas relacionadas con temas sensibles como adicciones, abusos o salud mental.
Recomendaciones y regulaciones pendientes
Para los investigadores, es necesario incluir en los chatbots avisos claros sobre qué información se recopila durante la interacción, además de campañas de formación que enseñen a los usuarios a identificar señales de manipulación digital.
Asimismo, sugieren que los reguladores y las plataformas tecnológicas adopten medidas más estrictas, como auditorías tempranas, mayor transparencia y normas específicas contra la recopilación encubierta de datos.

“Debemos dejar de pensar que toda interacción con la IA es inocente y comprender que también puede tener motivaciones ocultas”, concluyó Seymour.
Con el uso de chatbots en crecimiento acelerado y su incorporación en múltiples servicios digitales, el estudio pone en evidencia la necesidad de establecer mecanismos de protección más sólidos frente a un riesgo que combina confianza, manipulación y vulnerabilidad.
Últimas Noticias
Qué son los códigos 11881 y 9875 en Netflix y que películas o series desbloquea
Uno de estos códigos dirige a una categoría de películas destinadas principalmente a un público adulto, donde se incluyen títulos como ‘Cincuenta sombras de Grey’

Por qué ya no funciona Magis TV y qué alternativa segura hay
La plataforma fue bloqueada por orden judicial en Argentina; la app pirata ofrecía gratis canales en vivo y contenidos de Netflix, Disney+, HBO Max, Paramount+ y Amazon Prime Video

Apple podría usar la IA de Google Gemini para renovar su asistente de voz Siri
Estas conversaciones se deben en parte a los retrasos de Apple en cuanto al desarrollo de su IA

Modo superestrella en WhatsApp: qué es y cómo se puede activar
Los usuarios cuentan con la posibilidad de crear imágenes con Meta AI, el asistente impulsado por inteligencia artificial integrado en la aplicación móvil

IA resuelve en segundos (1+1)×1÷1+1: operación matemática que luce fácil pero complica a muchos
Para algunas personas, este ejercicio matemático puede resultar difícil debido a que combina varias operaciones en un solo paso, lo que requiere seguir estrictamente el orden correcto de cálculo
