
El desarrollo de la inteligencia artificial está mostrando un panorama paralelo que pone en riesgo a los usuarios. Los agentes de IA, como ChatGPT o Gemini que usamos a diario y que inicialmente están concebidos como asistentes versátiles capaces de ejecutar tareas cotidianas —como agendar reuniones, ordenar compras o administrar archivos— están demostrando un potencial peligroso: convertirse en herramientas eficaces para perpetrar ciberataques.
Reportes de MIT Technology Review y de plataformas como LLM Agent Honeypot, advierten que estos sistemas no solo actúan, sino que razonan, se adaptan y ejecutan con niveles de autonomía impensados hasta hace pocos años.
El progreso de los agentes que aprenden, razonan y atacan
A diferencia de los bots tradicionales, que siguen instrucciones predefinidas en entornos rígidos, los nuevos agentes de IA poseen capacidad de razonamiento contextual. Esto les permite identificar vulnerabilidades, modificar sus estrategias de ataque en función del entorno y ejecutar acciones sin supervisión humana constante.
OpenAI, Anthropic y Google trabajan actualmente en sistemas como Operator, Jarvis o agentes de prueba en entornos controlados, que ya pueden interactuar con páginas web, gestionar archivos o tomar decisiones operativas.

Según datos recopilados por Anthropic en sus evaluaciones de ciberseguridad, modelos como Claude 3.7 Sonnet han demostrado progresos significativos. En ejercicios tipo Capture The Flag (CTF), donde se simulan escenarios de intrusión informática, Claude pasó de un rendimiento propio de un estudiante de secundaria a uno comparable con el nivel universitario en apenas un año. De acuerdo con sus pruebas, el modelo resolvió cerca del 33% de los desafíos sin necesidad de pensamiento extendido, frente al 5% del año anterior.
Pero la verdadera inquietud comienza cuando estos sistemas son integrados con herramientas diseñadas específicamente para ciberataques. En colaboración con la Universidad Carnegie Mellon, Anthropic evaluó a Claude en entornos de red realistas compuestos por hasta 50 servidores.
Si bien los modelos actuales no pueden aún ejecutar con éxito ataques complejos de forma totalmente autónoma, con el apoyo de utilidades desarrolladas por investigadores —como el conjunto de herramientas Incalmo— sí lograron replicar ataques comparables a robos masivos de datos sensibles.
Cuál es el potencial peligroso de los agentes o asistentes IA
La organización Palisade Research ha implementado uno de los experimentos más reveladores hasta el momento. Su proyecto LLM Agent Honeypot consiste en servidores deliberadamente vulnerables que simulan contener información de alto valor, como datos gubernamentales o militares. La iniciativa no solo busca atraer a agentes maliciosos, sino también registrar sus patrones de comportamiento y evaluar sus capacidades reales.

Una de las técnicas clave utilizadas por el honeypot es la inyección de prompts —una forma de manipular la conducta del agente mediante comandos embebidos—. Si el agente responde correctamente a instrucciones diseñadas para evaluar razonamiento abstracto y lo hace en menos de 1,5 segundos, se considera probable que se trate de una IA y no de un humano o bot convencional.
Esta metodología permitió identificar ocho posibles agentes entre más de once millones de interacciones registradas, dos de los cuales fueron confirmados como agentes autónomos, aparentemente lanzados desde Hong Kong y Singapur.
Según Dmitrii Volkov, líder de investigación en Palisade, el objetivo es “detectar un aumento brusco en los intentos automatizados de intrusión”, una señal que indicaría que el ecosistema de amenazas ha cambiado por completo. El equipo prevé ampliar su infraestructura a plataformas sociales, bases de datos y sitios web, con el fin de analizar el comportamiento de agentes involucrados en spam, phishing o campañas de desinformación.
La capacidad de los agentes para ejecutar operaciones a gran escala y bajo costo los convierte en una opción atractiva para los ciberdelincuentes. Mark Stockley, experto en seguridad de Malwarebytes, advierte que “si se puede delegar la selección de objetivos a un agente, entonces se puede escalar el ransomware de una manera que hoy no es posible”.
Según un informe reciente de CheckPoint, los ciberataques aumentaron un 75% interanual en el tercer trimestre de 2024, alcanzando un promedio de 1.876 ataques semanales por organización. De ese total, más de 1.200 incidentes fueron ataques de ransomware, dirigidos principalmente a fabricantes, hospitales y organismos públicos.

La sofisticación de los agentes también permite sortear las limitaciones de los bots tradicionales, incapaces de adaptarse a escenarios imprevistos. “Pueden mirar un objetivo y adivinar cuál es la mejor manera de penetrarlo”, sostiene Volkov. Esta capacidad de adaptación y evasión plantea desafíos enormes para los mecanismos clásicos de detección, diseñados para malware menos flexible y con patrones repetitivos.
Una problemática con futuro por resolver
La industria y los gobiernos coinciden en que el tiempo para actuar es ahora. Según Vincenzo Ciancaglini, investigador de amenazas en Trend Micro, el entorno actual recuerda al de los LLM antes de la popularización de ChatGPT. “No sabemos cuándo los agentes podrán llevar a cabo una cadena completa de ataque por sí solos, pero puede pasar de golpe”, advierte.
Daniel Kang, profesor en la Universidad de Illinois Urbana-Champaign, desarrolló un benchmark que mostró que los agentes actuales pudieron explotar hasta el 25% de las vulnerabilidades descriptas con mínima información previa. Los bots convencionales, en comparación, apenas lograrían resultados marginales.
Aunque las capacidades aún estén lejos de representar un peligro inminente de forma autónoma, el crecimiento es exponencial. En palabras de Chris Betz, jefe de seguridad informática de Amazon Web Services, “ciertos ataques pueden volverse más simples de ejecutar y, por tanto, más frecuentes, aunque los principios de detección y respuesta sigan siendo los mismos”.
ultimas
Qué frases están prohibidas en WhatsApp para enviar en Semana Santa
Aunque no existe una lista de mensajes prohibidos en estas fechas, el uso de esta aplicación puede estar sujeto a ciertas regulaciones, especialmente en la difusión de contenidos

Tres electrodomésticos que se deben desconectar si vas a viajar en Semana Santa
Aunque varios aparatos pueden desconectarse, algunos deben mantenerse en funcionamiento para garantizar la seguridad y simular presencia en el hogar

Gana hasta 20.000 dólares vendiendo fotos de pies en aplicaciones
Aunque peculiar, esta práctica se ha consolidado como una forma legítima de generar ingresos en plataformas especializadas

Por qué Jesús no pasó por América Latina, esta es la respuesta desde la tecnología
El cristianismo llegó a América Latina en el siglo XVI con la colonización europea

¿Sam Altman desafía a Elon Musk y Meta?: OpenAI trabaja en su propia red social
La compañía detrás de ChatGPT avanza en el desarrollo de una red social, una jugada estratégica que lo colocaría en competencia directa con los magnates de la tecnología
