Cuáles son las estrategias que suman transparencia, equidad y cooperación internacional a la inteligencia artificial

Nuevas directrices éticas, acuerdos entre organizaciones y la supervisión humana se consolidan como pilares para asegurar un desarrollo confiable de la IA, mientras instituciones, empresas y gobiernos trabajan para potenciar sus beneficios sociales y minimizar riesgos

Guardar
Solo el 3% de la
Solo el 3% de la investigación técnica se dedica actualmente a desarrollar inteligencia artificial segura, según el Center for AI Safety.(Imagen Ilustrativa Infobae)

La seguridad en inteligencia artificial se ha convertido en una de las principales preocupaciones para la sociedad. A medida que estas tecnologías se incorporan en sectores críticos y su alcance se amplía, el impacto de sus riesgos crece. De acuerdo con IBM, la seguridad en IA abarca prácticas y principios destinados a que los sistemas se diseñen y empleen para beneficiar a la humanidad y limitar posibles daños.

La disciplina persigue que el desarrollo de la IA esté alineado con los valores humanos y que se utilice de modo responsable, en un contexto marcado por el aumento de la inquietud pública y empresarial frente a estos riesgos.

Cifras recientes ilustran la magnitud del desafío. Una encuesta de 2023 citada por IBM revela que el 52% de los norteamericanos muestran más preocupación que entusiasmo por el avance de la IA, mientras que otra encuesta demostró que el 83% teme la posibilidad de un evento catastrófico accidental provocado por estas tecnologías.

Un informe de 2024 señala que el 44% de las organizaciones ha sufrido consecuencias negativas asociadas al uso de IA, como inexactitud o problemas de ciberseguridad. Pese a ello, únicamente el 3% de la investigación técnica se dedica en la actualidad a desarrollar una IA segura, según el Center for AI Safety y datos respaldados por IBM.

Principales riesgos identificados

Proyectos conjuntos y directrices éticas
Proyectos conjuntos y directrices éticas están transformando la industria, con la supervisión humana y la protección de datos como pilares para una IA alineada a las necesidades sociales - (imagen ilustrativa Infobae)

Garantizar la seguridad de la IA implica identificar y gestionar varios riesgos con potencial para causar consecuencias indeseadas o facilitar usos maliciosos. Entre los más destacados señalados por IBM figuran el sesgo algorítmico, la privacidad de los datos, la pérdida de control sobre los sistemas, riesgos existenciales y amenazas a la ciberseguridad.

El sesgo algorítmico surge cuando los sistemas aprenden a partir de datos incompletos o sesgados. Esta situación puede dar lugar a decisiones injustas, como rechazar hipotecas de ciertos grupos o favorecer la contratación de hombres frente a mujeres. En materia de privacidad, la IA puede acceder o exponer datos personales de forma indebida, incrementando las dudas sobre la protección de información sensible y la responsabilidad de quienes desarrollan y emplean estas soluciones.

La pérdida de control, especialmente en sistemas avanzados con autonomía operativa, preocupa por la dificultad para intervenir o apagar estos sistemas ante comportamientos inesperados. IBM advierte que, sin supervisión humana, podrían tomarse decisiones impredecibles con consecuencias negativas. Los riesgos existenciales, vinculados al desarrollo de inteligencia artificial general o superinteligencia, aumentan la posibilidad de que estos sistemas desestabilicen estructuras globales o actúen sin alineación con valores humanos.

El uso malicioso de la IA agrega un nivel adicional de amenaza, ya que actores hostiles pueden emplear estas tecnologías en ciberataques, campañas de desinformación, actividades de vigilancia ilegal o incluso para causar daños físicos. En el campo de la ciberseguridad, los sistemas de IA presentan vulnerabilidades ante ataques adversarios, manipulación de datos de entrada o métodos como el “jailbreak” de IA. También pueden verse comprometidos por el “data poisoning”, donde los datos de entrenamiento alterados modifican el comportamiento de los sistemas.

El sesgo algorítmico y la
El sesgo algorítmico y la privacidad de los datos figuran entre los principales riesgos de la inteligencia artificial identificados por IBM. (AP Photo/Michael Dwyer)

Dos perspectivas sobre la seguridad

IBM distingue entre la seguridad en IA, centrada en resolver problemas para asegurar la alineación con valores humanos y minimizar impactos negativos, y la seguridad de IA, enfocada en proteger los sistemas ante amenazas externas. Esta segunda abarca la defensa contra ciberataques y fugas de datos, así como el uso de IA para reforzar la seguridad de organizaciones.

Prácticas y medidas recomendadas

Frente a estos desafíos, IBM recomienda varias acciones concretas. Destaca la detección y mitigación del sesgo algorítmico mediante recopilación de datos diversos y evaluaciones de equidad. Las pruebas de robustez, como test adversarios y de estrés, aseguran que los sistemas funcionen conforme a lo esperado. La IA explicable incrementa la transparencia de los modelos complejos, favoreciendo la interpretación de resultados y la confianza.

Establecer marcos éticos —transparencia, equidad, rendición de cuentas y privacidad— aporta una guía clara para el desarrollo responsable. La supervisión humana permanece como elemento central, permitiendo monitoreo y posibilidad de intervención en escenarios críticos.

La aplicación de protocolos de seguridad, como cifrado y control de accesos, refuerza la protección ante accesos indebidos y amenazas externas. Finalmente, la colaboración sectorial mediante consorcios, investigación e iniciativas de estandarización resulta fundamental para compartir conocimientos y definir mejores prácticas.

La pérdida de control sobre
La pérdida de control sobre sistemas autónomos de IA y los riesgos existenciales generan inquietud en la comunidad internacional. (Imagen Ilustrativa Infobae)

Gobernanza global y actores involucrados

La responsabilidad por la seguridad en inteligencia artificial involucra a diferentes actores. Desarrolladores e ingenieros deben diseñar, construir y testear sistemas con transparencia y alineados a los valores humanos. Grandes empresas tecnológicas como IBM, OpenAI, Google DeepMind, Microsoft y Anthropic invierten en equipos específicos de seguridad, promueven directrices éticas y cooperan en coaliciones sectoriales.

Los gobiernos y organismos internacionales, tales como la Organización de las Naciones Unidas, el Foro Económico Mundial y la Organización para la Cooperación y el Desarrollo Económicos (OCDE), lideran iniciativas regulatorias y de gobernanza, como el Artificial Intelligence Safety Institute (AISI) en Estados Unidos, el EU AI Act en la Unión Europea y el AI Safety Institute en Reino Unido, además de entidades similares en Singapur, Japón y Canadá.

Las organizaciones sin fines de lucro desempeñan un papel esencial. Instituciones como el Center for AI Safety (CAIS), el Center for Human-Compatible AI (CHAI), el Stanford Institute for Human-Centered Artificial Intelligence, el Machine Intelligence Research Institute (MIRI), el Partnership on AI, el Future of Life Institute y la Cloud Security Alliance impulsan la investigación, la promoción de la transparencia y el desarrollo de directrices éticas.

En este contexto, IBM enfatiza que reducir los riesgos existenciales asociados a la inteligencia artificial debe considerarse una prioridad global, comparable con el reto que representan las pandemias o la proliferación nuclear.