Entre las causas que explican mejores resultados en seguridad de la inteligencia artificial, el Future of Life Institute destacó la claridad de las evaluaciones de riesgos y la estructura robusta de seguridad de Anthropic, así como su inversión en investigación para protección técnica y su naturaleza jurídica como Corporación de Beneficio Público. A pesar de estos avances diferenciadores, el informe del Future of Life Institute advierte que ninguna compañía desarrolladora de inteligencia artificial cumple de forma íntegra con los estándares internacionales de seguridad vigentes, incluidos los recogidos en el Código de Prácticas de la Unión Europea. El instituto identificó déficits generalizados en la gestión de riesgos en toda la industria, señalando la necesidad de instaurar mecanismos verificables ante amenazas potencialmente graves para los usuarios y la sociedad.
De acuerdo con el Future of Life Institute, solo Google DeepMind, Anthropic y OpenAI alcanzan un nivel mínimo de aprobación general en la evaluación sobre seguridad de inteligencia artificial. El estudio, conducido por ocho especialistas de la organización, examinó las políticas y acciones de ocho de los principales desarrolladores a nivel mundial: Anthropic, Alibaba Cloud, DeepSeek, Google DeepMind, Meta, OpenAI, xAI y Z.ai. El análisis se orientó a identificar cómo enfrentan riesgos inmediatos y amenazas potencialmente catastróficas derivadas del avance en sistemas de IA, en un contexto de creciente preocupación pública y regulatoria frente al impacto social de estas tecnologías.
La principal vulnerabilidad identificada corresponde a la llamada seguridad existencial. Según informó el Future of Life Institute, este criterio evalúa la presencia de mecanismos capaces de prevenir que emerja una inteligencia artificial autoconsciente con capacidad de causar daños irreparables y generalizados. Los expertos concluyeron que ninguna de las compañías supera este umbral, a pesar de los esfuerzos y de señales de progreso en algunas de ellas. El instituto remarcó que pese a la expansión global de la IA, las salvaguardias efectivas continúan siendo insuficientes.
Entre las firmas evaluadas, Google DeepMind, Anthropic y OpenAI muestran avances tímidos en materia de evaluación de riesgos, definición de marcos de seguridad y disposición al intercambio de información. Esta ligera ventaja, según publicó el Future of Life Institute, responde principalmente a una mayor transparencia en ciertos procedimientos y en algunos aspectos de gobernanza. Anthropic, en particular, sobresale por la claridad y consistencia de sus informes de riesgos y por el apoyo a regulaciones estatales, según el informe.
El Future of Life Institute identificó diferencias significativas entre las empresas no solo en cuanto a declaraciones públicas, sino en el grado de sistematización y control efectivo sobre los riesgos. Varias compañías muestran una alineación parcial con normativas internacionales en construcción, aunque los niveles de detalle y calidad en la aplicación de los protocolos de seguridad todavía presentan brechas considerables. El informe pone el foco en la disparidad entre los compromisos teóricos y la evidencia de prácticas comprobadas, especialmente en campos como la transparencia y la mensurabilidad de los resultados.
Según consignó el Future of Life Institute, el análisis incorporó políticas de divulgación pública, pero también buscó evidencia documentada de procesos internos que demuestren control sobre los riesgos. La gran mayoría entrega información limitada acerca de la gestión de daños inmediatos y escasa evidencia sobre sistemas que mitiguen escenarios catastróficos de impacto global. La organización señaló que la lenta adopción de evaluaciones formales por parte de la industria afecta la confianza de los reguladores y de la sociedad en general.
El informe enfatiza que se requieren salvaguardias concretas y basadas en evidencia, con desencadenantes claros, umbrales realistas y mecanismos demostrados de monitorización y control. "Todas las empresas deben ir más allá de las declaraciones de seguridad existencial de alto nivel y producir salvaguardias concretas basadas en evidencia con desencadenantes claros, umbrales realistas y mecanismos demostrados de monitorización y control capaces de reducir la exposición a riesgos catastróficos", expresó el análisis del Future of Life Institute. El texto subraya que las compañías no solo deben comprometerse públicamente sino respaldar sus afirmaciones con pruebas sistemáticas y procedimientos auditables.
El estudio, cuyos datos se basan en la información disponible hasta el 8 de noviembre, no incluye la evaluación de los modelos más recientes lanzados por las compañías evaluadas, como Gemini 3 Pro de Google DeepMind, Grok 4.1 de xAI, GPT-5.1 de OpenAI y Claude Opus 4.5 de Anthropic. El Future of Life Institute aclaró que ese desfase podría modificar las calificaciones actuales si las nuevas versiones han incluido mejoras relevantes en materia de seguridad. No obstante, los hallazgos actuales muestran que el desarrollo tecnológico avanza a un ritmo más rápido que la evolución de los marcos regulatorios y de las prácticas comprobadas de seguridad.
El medio especificó que en el sector de la inteligencia artificial continúa la tendencia de prometer públicamente avances en la mitigación de riesgos asociados a la desinformación, la manipulación y el impacto social, pero las evaluaciones externas hallan una brecha entre estos anuncios y las prácticas que pueden verificarse hasta ahora. El informe distingue un esfuerzo progresivo hacia la incorporación de estándares internacionales, aunque advierte que el nivel de cumplimiento oscila de manera notable entre las distintas empresas.
El Future of Life Institute subraya que reguladores, usuarios y otros agentes sociales siguen sin disponer de garantías consistentes sobre la existencia y calidad de mecanismos de seguridad confiables. Esta situación obedece tanto a la escasez de auditoría externa sobre los procesos internos como a la falta de información detallada acerca de los protocolos aplicados. Además, la organización enfatizó el desafío que representa el ritmo desigual en la adopción de evaluaciones sistemáticas y controladas, lo que dificulta la tarea de supervisión y genera incertidumbre en la opinión pública.
En este escenario, el Future of Life Institute plantea la urgencia de avanzar en la adopción de marcos regulatorios globales y en la creación de incentivos destinados a fomentar la transparencia, la verificación y el rigor en la gestión de riesgos. El informe, elaborado en un momento de creciente debate social y político sobre los efectos de la inteligencia artificial avanzada, sostiene que resulta prioritario reforzar la supervisión, establecer umbrales de riesgo concretos y definir mecanismos de control auditables. Según el análisis, el objetivo es limitar la exposición de la sociedad a posibles escenarios de consecuencias graves o irreversibles causados por el despliegue de sistemas de IA cada vez más potentes y autónomos.

