Alertan sobre chatbots de IA diseñados para engañar a usuarios y extraer sus datos

Un estudio del King’s College de Londres reveló que los chatbots pueden manipular emocionalmente a los usuarios para extraer información sensible

Guardar
Chatbots de IA pueden extraer
Chatbots de IA pueden extraer información personal sin que lo sepas. (Foto: Imagen ilustrativa)

Los chatbots de inteligencia artificial (IA) se han popularizado en los últimos años y hoy forman parte de la vida digital de millones de personas. Sin embargo, un nuevo estudio del King’s College de Londres advierte sobre un riesgo creciente: estas herramientas pueden manipular a los usuarios para que revelen información muy personal sin que sean plenamente conscientes de ello.

Los investigadores probaron esta hipótesis utilizando modelos conversacionales creados a partir de código abierto, como Le Chat de Mistral y dos versiones de Llama, desarrollado por Meta. A partir de ellos, construyeron chatbots “maliciosos” programados para intentar extraer datos de los participantes mediante tres tácticas: pedirlos de manera directa, engañarlos con supuestos beneficios y recurrir a estrategias emocionales que fomentaran la confianza y la reciprocidad.

En la prueba participaron 502 personas, que interactuaron con los chatbots sin conocer el objetivo real del estudio. Posteriormente, completaron una encuesta sobre la experiencia y su percepción de seguridad en la conversación.

Chatbots de IA pueden ser
Chatbots de IA pueden ser programados para extraer información sensible de usuarios. (gptzone.net)

La “amabilidad” como estrategia de manipulación

El experimento mostró que los chatbots con comportamientos aparentemente empáticos y amigables fueron los más eficaces para conseguir información privada. Según el informe, estos sistemas utilizaban mensajes de apoyo emocional o mostraban comprensión, lo que generaba una sensación de cercanía con los usuarios. Esa confianza se tradujo en que las personas compartieran datos sensibles con más facilidad y sin detectar grandes riesgos de privacidad.

Los autores describieron esta situación como una “paradoja preocupante”: la empatía artificial, que en teoría debería brindar seguridad, se convierte en un mecanismo para vulnerar la intimidad de los usuarios.

El estudio también comprobó que, aunque los participantes eran capaces de identificar cierto nivel de incomodidad cuando los chatbots pedían información de forma directa, aun así llegaron a revelar detalles personales.

La IA y sus chatbots
La IA y sus chatbots pueden conseguir información de los usuarios de manera indirecta. (Mondo)

Qué información comparten los usuarios

Entre los datos más comunes que los voluntarios entregaron a los chatbots figuraban edad, aficiones, país de residencia, sexo, nacionalidad y puesto de trabajo. Sin embargo, algunos también llegaron a compartir información más delicada, como estado de salud, ingresos económicos o experiencias personales sensibles.

William Seymour, profesor de ciberseguridad del King’s College y uno de los autores del estudio, subrayó que existe “una enorme brecha entre la conciencia que tienen los usuarios sobre los riesgos de privacidad y la forma en que terminan compartiendo su información en línea”.

Personalización vs. privacidad

Las empresas detrás de estos sistemas suelen justificar la recopilación de datos personales como un recurso para personalizar las respuestas, enviar notificaciones o realizar estudios de mercado. Sin embargo, la investigación advierte que esa comodidad que ofrece la personalización puede llevar a que los usuarios dejen de lado sus preocupaciones sobre la privacidad.

Chatbots de IA. (Imagen Ilustrativa
Chatbots de IA. (Imagen Ilustrativa Infobae)

El informe recuerda que varias compañías de tecnología han enfrentado críticas por el manejo de la información. Un ejemplo reciente fue Google, señalado por exponer conversaciones privadas en sus resultados de búsqueda, algunas de ellas relacionadas con temas sensibles como adicciones, abusos o salud mental.

Recomendaciones y regulaciones pendientes

Para los investigadores, es necesario incluir en los chatbots avisos claros sobre qué información se recopila durante la interacción, además de campañas de formación que enseñen a los usuarios a identificar señales de manipulación digital.

Asimismo, sugieren que los reguladores y las plataformas tecnológicas adopten medidas más estrictas, como auditorías tempranas, mayor transparencia y normas específicas contra la recopilación encubierta de datos.

Especialistas recomiendan no brindar información
Especialistas recomiendan no brindar información personal a los chatbots de IA. (3djuegos.com)

“Debemos dejar de pensar que toda interacción con la IA es inocente y comprender que también puede tener motivaciones ocultas”, concluyó Seymour.

Con el uso de chatbots en crecimiento acelerado y su incorporación en múltiples servicios digitales, el estudio pone en evidencia la necesidad de establecer mecanismos de protección más sólidos frente a un riesgo que combina confianza, manipulación y vulnerabilidad.