
Cientos de miles de transcripciones de conversaciones entre usuarios y el chatbot Grok, desarrollado por la compañía de inteligencia artificial xAI de Elon Musk, pueden encontrarse fácilmente en Google y otros motores de búsqueda.
Al utilizar el botón de “compartir” en una conversación con Grok, el sistema genera un enlace único que no solo permite enviar ese diálogo por correo o mensaje: también lo publica en la web y lo expone a la indexación pública sin advertencias para el usuario. Esto ha provocado que más de 370.000 conversaciones hayan sido rastreadas e indexadas por Google, lo que convierte a Grok en el epicentro de una controversia sobre privacidad y exposición de datos sensibles.
Usuarios expuestos sin advertencia ni consentimiento
Muchos usuarios afectados no sabían que estaban facilitando el acceso público a sus conversaciones. Andrew Clifford, periodista británico, utilizó Grok para resumir portadas de periódicos y componer tuits para su propio sitio web, pero desconocía que ese contenido terminaría siendo visible en internet: “Me molestaría un poco, pero no había nada ahí que no debiera estar”, expresó al enterarse del alcance de la divulgación.

Luego de esta experiencia, Clifford decidió adoptar la IA Gemini de Google en su trabajo. Sin embargo, no todas las conversaciones indexadas resultaron neutrales o inofensivas. Forbes descubrió intercambios donde usuarios consultaron temas íntimos sobre medicina y psicología, además de casos en los que se compartieron nombres, datos personales e incluso contraseñas. Los archivos de imagen, hojas de cálculo y documentos de texto adjuntos por los usuarios también quedaron accesibles desde estas páginas compartidas.
Entre los diálogos públicos figuran peticiones a Grok relacionadas con la generación de imágenes de ataques ficticios, intentos de hackeo de billeteras cripto y solicitudes explícitas para producir instrucciones sobre la fabricación de drogas ilegales como fentanilo y metanfetamina, el desarrollo de software malicioso y métodos de suicidio. Uno de los registros revisados incluía un plan detallado para asesinar a Elon Musk. Esto contradice las normas de xAI, que prohíben usar el chatbot para promover daños graves o el desarrollo de armas, pero en la práctica, el sistema compartió información ilícita y esta se publicó en el sitio web de Grok, haciéndose hallable mediante búsquedas sencillas.
Controversia en el sector y reacciones del mercado
La gravedad del asunto aumenta al recordar que xAI no respondió a los múltiples requerimientos de la prensa para obtener comentarios sobre la vulnerabilidad y la falta de avisos explícitos en el proceso de compartir. El problema no es exclusivo de xAI. Hace unas semanas, la comunidad de usuarios de ChatGPT experimentó una situación similar, al descubrir que sus diálogos aparecían en Google tras haber habilitado la opción para que fuesen localizables. Después de protestas generalizadas, OpenAI eliminó la función. Dane Stuckey, jefe de seguridad de la información de OpenAI, calificó este experimento de “corta duración” y anunció su retiro: “Introdujo demasiadas posibilidades de que la gente compartiera cosas accidentalmente”.

Lejos de mostrarse autocríticos, en aquel entonces desde Grok celebraron la retirada de la función de su competidor. En su cuenta oficial afirmaron no tener nada similar, y Musk tuiteó: “Grok ftw”. Sin embargo, usuarios de la red X reportan desde enero que sus diálogos en Grok estaban siendo indexados por Google.
La exposición de información confidencial no afectó únicamente a usuarios comunes. El científico computacional Nathan Lambert, del Allen Institute for AI, relató que su sorpresa al saber que una interacción compartida con Grok para su equipo terminó en Google, sin que mediara advertencia: “Me sorprendió que los chats compartidos con mi equipo se indexaran automáticamente, especialmente después del reciente problema de ChatGPT”.
Google, por su parte, recuerda que los administradores de sitios web tienen control sobre los contenidos que son indexados. Ned Adriance, vocero de Google, puntualizó que “los editores de estas páginas tienen pleno control sobre su indexación”. El propio buscador ya permitió que conversaciones con su antiguo chatbot Bard fueran visibles públicamente, aunque retiró esa posibilidad en 2023. Por su parte, Meta continúa facilitando el rastreo de sus búsquedas compartidas por internet.
En paralelo, surgieron actores que buscan sacar partido de esta situación. Tanto en LinkedIn como en foros especializados, algunos profesionales del marketing intercambian tácticas para crear y compartir conversaciones en Grok con el objetivo de posicionar marcas y servicios en los resultados de Google. Satish Kumar, directivo de Pyrite Technologies, demostró cómo una empresa usó Grok para manipular búsquedas relacionadas con redacción de tesis doctorales: “Cada chat compartido en Grok es plenamente indexable y rastreable en Google. Hay personas que ya están aplicando estrategias para empujar estas páginas dentro del índice del buscador”.
Mientras la inteligencia artificial se posiciona en las tareas cotidianas y de negocios, la situación vivida con Grok y el resto de plataformas señala la urgencia de clarificar los límites entre utilidad y privacidad, transparencia y exposición, en un entorno donde cada clic abre la puerta a la posible publicación global de datos sensibles y conversaciones privadas.
Últimas Noticias
Gemini 3 impulsó a Alphabet a máximos históricos en bolsa y refuerza su liderazgo en inteligencia artificial
La nueva versión del modelo de inteligencia artificial de Alphabet ha elevado el valor de sus acciones y consolidado a la compañía como referente del sector, superando a competidores y generando expectativas entre inversores y analistas
Expertos alertan una posible burbuja en megaproyectos de IA
La actual efervescencia de la inteligencia artificial, a diferencia de la burbuja puntocom, está impulsada en gran parte por compañías multimillonarias con bases financieras sólidas

No más perfiles falsos en Tinder: ahora exigirán verificación facial en América Latina
Face Check opera verificando que el usuario esté presente físicamente y que su rostro se corresponde inequívocamente con las imágenes de perfil subidas a la app

Crean una supercomputadora en Chile que impulsa la innovación en América Latina: investigadores anticipan el cáncer
El sistema de cómputo avanzado está disponible como recurso abierto para universidades, empresas y centros de investigación en Chile, según AMD

Robots asistentes son peligrosos para los humanos y aumentan la discriminación, según estudio
Investigación encontró que los modelos de inteligencia artificial incorporados en máquinas inteligentes aprobaron conductas como amenazar con un cuchillo o señalar a personas por sus creencias




