
La percepción de que los sistemas de inteligencia artificial más sofisticados ofrecen mayor seguridad ha quedado en entredicho tras la publicación de un estudio internacional que revela una vulnerabilidad crítica: los modelos de IA con capacidades avanzadas de razonamiento resultan, en realidad, más susceptibles a ataques cibernéticos.
El análisis, realizado por equipos de investigación de Anthropic, la Universidad de Oxford y la Universidad de Stanford, identificó que la mejora en el razonamiento de los modelos de IA, lejos de reforzar sus defensas, puede convertirse en un punto débil explotable.
Los investigadores observaron que, a medida que estos sistemas adquieren la capacidad de analizar y procesar solicitudes complejas, también se vuelven más vulnerables a técnicas de manipulación que logran eludir sus mecanismos internos de seguridad.
Secuestro de cadena de razonamiento: el método de ataque
El método de ataque descrito en el estudio, denominado secuestro de cadena de razonamiento, aprovecha precisamente la estructura lógica que emplean los modelos de IA para resolver problemas. Consiste en insertar una instrucción peligrosa al final de una larga secuencia de pasos aparentemente inocuos.
De este modo, el atacante inunda el proceso de razonamiento del modelo con contenido benigno, lo que debilita los controles internos diseñados para detectar y rechazar solicitudes dañinas. Durante este proceso, la atención del sistema se concentra en los primeros pasos, mientras que la orden maliciosa, ubicada al final, pasa inadvertida y puede ejecutarse sin obstáculos.
Los resultados del estudio muestran que este tipo de ataque puede alcanzar tasas de éxito superiores al 80% en pruebas con modelos comerciales líderes. La probabilidad de que el sistema ignore sus salvaguardas y genere contenido peligroso —como instrucciones para fabricar armas o divulgar información sensible— aumenta de forma significativa cuando se emplean cadenas de razonamiento más extensas.

Según los datos recopilados, la tasa de éxito de los ataques pasó del 27% con razonamientos mínimos al 51% en secuencias de longitud natural, y superó el 80% cuando se utilizaron cadenas prolongadas.
Modelos afectados y alcance de la vulnerabilidad
La vulnerabilidad identificada afecta a casi todos los modelos de IA de referencia en el mercado, incluidos GPT de OpenAI, Claude de Anthropic, Gemini de Google y Grok de xAI.
El problema no se limita a los sistemas estándar: incluso aquellos que han sido ajustados específicamente para reforzar su seguridad —los denominados modelos alineados— muestran fallos cuando los atacantes explotan sus capas internas de razonamiento.
Esta situación amplía el alcance del riesgo, ya que compromete tanto a las versiones comerciales más extendidas como a las diseñadas para entornos con mayores exigencias de protección.
En el último año, la industria de la inteligencia artificial ha apostado por incrementar la capacidad de razonamiento de sus modelos como principal vía para mejorar el rendimiento, tras constatar que otras estrategias de escalado ofrecían beneficios decrecientes.
Se asumía que esta evolución también contribuiría a fortalecer la seguridad, al permitir que los sistemas rechazaran solicitudes perjudiciales con mayor eficacia. Sin embargo, el estudio demuestra que la sofisticación en el razonamiento puede abrir nuevas puertas a la manipulación, contradiciendo las expectativas previas y obligando a replantear los enfoques de protección en el desarrollo de IA avanzada.
La capacidad de los modelos de inteligencia artificial para abordar preguntas complejas y operar de manera más similar a la resolución de problemas humanos representa un avance, pero también introduce desafíos inéditos en materia de seguridad y control.
Últimas Noticias
Cómo reparar una computadora que se enciende y apaga sola en simples pasos
La primera medida es revisar y asegurar que la CPU, GPU y RAM estén correctamente instalados en sus respectivos sockets y ranuras

Estados Unidos y Europa refuerzan restricciones a DeepSeek por temor a espionaje
Gobiernos occidentales han intensificado las prohibiciones sobre la plataforma china de inteligencia artificial, citando riesgos de seguridad y privacidad, mientras crece la preocupación por el acceso de Pekín a datos sensibles de usuarios y organismos oficiales
Estos son los números con mayor probabilidad para ganarse la lotería del 9 a 14 de noviembre de 2025, según Gemini y ChatGPT
Entre las cifras que más veces han salido según IA figuran el 15, 16, 17, 20, 22, 23, 27, 28, 32, 33, 39 y 42, aunque ninguna representa una apuesta segura para ganar

Aprende a descargar e instalar de manera segura WhatsApp para el ordenador: Windos y Mac
Descubre cómo descargar la aplicación oficial de WhatsApp, mantener la seguridad de tus chats y elegir entre Escritorio y Web sin riesgos de virus ni pérdida de información en el entorno digital actual

Por qué Steve Jobs buscaba personas que le llevaran la contraria: uno de los secretos del éxito de Apple
El empresario defendía la importancia de escuchar opiniones divergentes y fomentar el debate entre expertos para lograr consensos sólidos, una filosofía clave para el desarrollo de nuevos dispositivos



