
La irrupción de la inteligencia artificial en el ámbito de la ciberseguridad sumó un nuevo capítulo con el uso de Claude, el chatbot desarrollado por Anthropic, en una campaña de robo de datos a agencias gubernamentales en México.
Según reportó Bloomberg, un atacante logró explotar las capacidades del sistema para obtener información confidencial sobre impuestos y registros de votantes mediante instrucciones personalizadas que burlaron los filtros de seguridad de la plataforma.
El incidente, ocurrido entre diciembre de 2023 y enero de 2024, puso en evidencia el potencial de la inteligencia artificial como herramienta para ataques sofisticados y el desafío que enfrentan los desarrolladores para anticipar y bloquear usos maliciosos.
Un ataque coordinado con IA: así operó el hacker en México
La investigación, realizada por la firma israelí Gambit Security, identificó que el hacker utilizó Claude para redactar scripts informáticos, detectar vulnerabilidades y automatizar el acceso a redes de distintos organismos públicos. El objetivo, según la empresa, fue extraer datos de la autoridad fiscal federal mexicana, el Instituto Nacional Electoral y gobiernos estatales como Jalisco, Michoacán y Tamaulipas, además de sistemas municipales y el servicio de agua de Monterrey.

El atacante instruyó a Claude en español para que actuara como un experto en ciberataques, adaptando el lenguaje y las solicitudes hasta que el sistema accedió a ejecutar miles de comandos en las redes oficiales.
Fueron sustraídos 150 gigabytes de información, incluyendo 195 millones de registros de contribuyentes y padrones electorales, según la documentación consultada. La investigación señala que el atacante consiguió sortear las advertencias iniciales del chatbot y logró “liberar” el sistema después de insistir con distintas tácticas, una técnica conocida como jailbreak.
Anthropic confirmó que interrumpió la actividad maliciosa y bloqueó las cuentas implicadas tras recibir la alerta. Además, la empresa afirmó que incorporó los patrones detectados en sus bases de entrenamiento para reforzar las barreras de seguridad en versiones futuras del modelo, como Claude Opus 4.6.
Respuestas institucionales y límites de la protección digital
Las repercusiones del ataque llevaron a que varias instituciones mexicanas emitieran comunicados sobre la situación. El Instituto Nacional Electoral negó haber detectado vulneraciones recientes y aseguró que reforzó su estrategia de ciberseguridad. El gobierno de Jalisco descartó afectaciones en sus sistemas y atribuyó el problema a redes federales. Mientras tanto, la autoridad fiscal federal y otros organismos locales no respondieron de forma inmediata a las consultas.
El informe de Gambit Security destaca que el atacante buscaba obtener identidades de empleados públicos y explotó al menos 20 vulnerabilidades específicas. A medida que Claude encontraba obstáculos, el hacker complementaba la información recurriendo a ChatGPT de OpenAI para obtener detalles adicionales sobre movimientos laterales en redes y credenciales necesarias para acceder a sistemas restringidos.
Según explicó Curtis Simpson, director de estrategia de Gambit Security, la inteligencia artificial permitió al atacante producir “miles de informes detallados que incluían planes listos para ejecutar”, facilitando la elección de objetivos y el uso de credenciales.
Riesgos crecientes y desafíos para la inteligencia artificial
El caso mexicano se suma a una tendencia global en la que la inteligencia artificial se convierte tanto en un recurso para la protección digital como en un vector para ataques complejos. Tanto Anthropic como OpenAI informaron que detectaron y bloquearon cuentas usadas para violar sus políticas, incluidas actividades ilícitas como el robo de datos o la manipulación de sistemas.
La investigación de Gambit Security reveló que el atacante evadió las barreras de seguridad de Claude simulando participar en programas de recompensas por errores, lo que permitió burlar controles y ejecutar pruebas de penetración en sistemas oficiales. Cuando el chatbot detectó solicitudes anómalas, el operador insistió y modificó la estrategia, logrando finalmente eludir las restricciones.

El incidente coincide con una etapa de expansión de las herramientas de IA en el ámbito de la ciberseguridad, donde empresas buscan fortalecer defensas basadas en inteligencia artificial al mismo tiempo que delincuentes y espías desarrollan métodos para aprovechar la tecnología en actividades ilícitas.
La rápida respuesta de Anthropic y la colaboración con firmas de seguridad como Gambit Security ilustran la importancia de adaptarse a amenazas dinámicas y de fortalecer los sistemas frente a la persistencia de los atacantes. Mientras tanto, la explotación de la inteligencia artificial en ataques contra agencias gubernamentales plantea interrogantes sobre los límites de la protección digital y la necesidad de protocolos más robustos.
Últimas Noticias
Lo que revela la inteligencia artificial sobre las personas que ríen en exceso
Según Gemini, la primera razón para una risa continua puede ser un mecanismo de defensa emocional

Electrodomésticos que debes desenchufar cuando no los usas para reducir tu consumo eléctrico
El ‘consumo fantasma’ ocurre cuando dispositivos eléctricos permanecen enchufados y continúan usando energía pese a no estar en funcionamiento

OPPO A6 Pro 5G a prueba: resistencia y batería destacadas, pero la cámara
Este celular, perteneciente a la línea accesible de la marca, incorpora funciones de edición fotográfica con inteligencia artificial, como el borrador de objetos y la apertura de ojos cerrados en retratos

¿Gemini supera a Siri?: el nuevo modo agéntico controla tus apps y automatiza tareas
La IA podrá tomar el control de las aplicaciones y realizar acciones complejas por el usuario, como hacer pedidos en apps de delivery

OpenAI revela los usos indebidos de ChatGPT: desde abogados falsos hasta estafa de citas
La empresa detalla cómo actores maliciosos han explotado el modelo para manipular políticamente, realizar estafas románticas y suplantaciones de identidad



