Identifican respuestas de Grok que contienen información personal de usuarios anónimos como sus direcciones detalladas

Expertos advierten sobre riesgos de privacidad tras descubrir que un asistente virtual basado en inteligencia artificial proporciona información confidencial de individuos, como localizaciones exactas y datos de contacto, en varios casos sin restricciones, según una reciente investigación de Futurism

Guardar

Grok, el asistente virtual desarrollado por xAI, ha sido capaz de proporcionar no solo la dirección de las personas solicitadas, sino también datos sobre familiares y contactos actuales, como números de teléfono y direcciones de correo electrónico, según una investigación realizada por el medio Futurism. El chatbot entregó esta información incluso cuando no se le pidió específicamente, lo que generó preocupación sobre los mecanismos de protección de la privacidad que sostiene el sistema de inteligencia artificial en situaciones de consulta de datos confidenciales de individuos anónimos. El principal hallazgo de la pesquisa muestra que Grok ofreció respuestas con datos personales detallados ante consultas simples por nombre y apellidos, sin mayores filtros, lo que pone en evidencia el riesgo de divulgación inadvertida de información sensible.

Según publicó Futurism, la serie de pruebas consistió en pedir directamente al asistente virtual la “dirección de” una serie de personas no públicas, añadiendo nombre y apellidos. Los resultados obtenidos fueron relevantes: de 33 personas solicitadas, Grok proporcionó direcciones de domicilio actuales o pasadas de forma exacta en 17 casos. De esas respuestas, en 10 oportunidades la IA entregó información residencial actual y correcta; en otros siete casos, los datos correspondían a domicilios anteriores, todavía precisos. Por otro lado, en cuatro peticiones el chatbot informó direcciones laborales, igualmente verificadas, en lugar de residenciales.

La investigación del medio Futurism también encontró que, de manera autónoma, Grok facilitó información sobre parientes de las personas consultadas. Este suministro de datos, que incluía teléfonos y correos electrónicos actuales, sucedió incluso sin haber sido solicitado puntualmente, incrementando el alcance de la exposición de datos privados. Además, en una docena de consultas adicionales, el chatbot entregó direcciones y otros datos personales que finalmente no correspondían a las personas indicadas, mostrando la posibilidad de que el asistente no revise adecuadamente la coincidencia entre nombres y sujetos reales antes de ofrecer información sensible.

De acuerdo con Futurism, la investigación sugiere que Grok estaría extrayendo y estructurando información existente en diversas fuentes, ya disponibles en internet o posiblemente en páginas de la dark web, para responder a las consultas de los usuarios. El medio plantea que la IA no utiliza sistemas eficaces de restricción ante pedidos de datos sensibles, factor que facilita que usuarios sin acreditación, o con simples preguntas generales, accedan a detalles privados de personas que no son figuras públicas ni consentidores de la revelación de sus datos personales.

La investigación de Futurism destaca que, en solo un caso de los experimentados, Grok rechazó proporcionar la dirección solicitada, evidenciando que los criterios de negativa a solicitudes potencialmente inapropiadas o en violación de privacidad parecen ser inconsistentes o insuficientes en el estado actual del chatbot.

En los propios términos de servicio de Grok, xAI define el suministro de información personal sin consentimiento como “uso prohibido”, encuadrándolo dentro de actividades “ilegales, dañinas o abusivas”. El documento explícitamente menciona la prohibición de “violar la privacidad de una persona” o involucrarse en solicitudes que puedan ser clasificadas dentro de esa categoría.

Tal como recogió Futurism, los riesgos derivados del funcionamiento del asistente virtual han puesto en debate la efectividad de los mecanismos actuales de resguardo de información personal en plataformas gestionadas por inteligencia artificial, sobre todo ante la facilidad con que Grok respondió a requerimientos de direcciones y datos privados sin medidas de control notables. Nin consultas simples, los usuarios obtuvieron detalles personales de individuos sin autorización ni verificación adicional, hecho que plantea interrogantes sobre el resguardo de la privacidad en sistemas avanzados de IA.

El medio Futurism subrayó que esta situación podría afectar a personas no públicas, quienes quedan expuestas a solicitudes de datos sin herramientas claras para solicitar su protección o retiro de bases de datos accesibles por sistemas de IA. La filtración, o el uso de información recolectada sin restricciones, supone una vulnerabilidad en la protección de derechos individuales y evidencia las dificultades técnicas y éticas que enfrentan los desarrolladores de asistentes virtuales en el contexto actual.

Las conclusiones del reportaje ponen en primer plano las implicancias del manejo de información personal por sistemas automáticos y la necesidad de fortalecer las políticas de privacidad para evitar la exposición injustificada de datos identificativos, considerando que en el caso de Grok, según mostró Futurism, los controles resultaron fácilmente superables con simples consultas.