
Un error de identificación, según los expertos y las autoridades responsables, explica la muerte de siete cooperantes de la ONG humanitaria World Central Kitchen el 1° de abril en Gaza, cuyo convoy de ayuda alimentaria fue atacado por drones guiados por Inteligencia Artificial.
Este hecho, pone dramáticamente en evidencia lo que ya se sabe de los riesgos del uso de la Inteligencia Artificial aplicada a las armas autónomas, que operan y “deciden” sus ataques fuera del control humano.
La cadena France24 señala que la mayoría de los errores de selección de objetivos se deben a la entrega de la “decisión” a la Inteligencia Artificial, una herramienta que no es ni inteligente ni artificial. Hay sistemas programados para objetivos de infraestructura y otros para selección de personas, están en aplicación desde hace tiempo y tienen márgenes de error en torno al 10%. Lamentablemente, los siete cooperantes muertos en Gaza cayeron dentro de este margen.
Este no es un tema de un país u otro en concreto, y desde luego, pensando de buena fe, no se puede creer que el ataque a los cooperantes humanitarios haya sido humanamente intencionado. Lo que pasa es que, si se decide utilizar un arma autónoma, hay que asumir que esta busca y ataca objetivos sin control humano, basada solamente en la programación que tiene incorporada, sin posibilidad por lo tanto de corrección una vez desplegada. Mayor peligro aún reviste cuando se trata de armamento nuclear autónomo. Lamentablemente, varios países siguen invirtiendo actualmente en su desarrollo.
Se hace cada vez más urgente la necesidad de una regulación internacional de la Inteligencia Artificial -como promueven el Secretario General de la ONU y muchos centros de estudios independientes, universidades y expertos- que sea vinculante, tanto en su desarrollo como en sus aplicaciones, para evitar consecuencias nefastas en este y otros campos. Hace unas semanas, en la Asamblea General de la ONU, se dio un paso importante al aprobar la primera Resolución global sobre IA, pero no es suficiente, porque, lamentablemente, al igual que las normativas que hasta ahora se están aprobando o estudiando a nivel multilateral, por ejemplo la de la Unión Europea, o de los estados, como la de China, no contemplan una regulación vinculante del uso militar de esta tecnología, tal vez la parte más peligrosa de su aplicación.
Espero que este terrible “error de identificación” sirva para concienciar a la comunidad internacional y a nuestra propia sociedad sobre este mayor riesgo y se avance decididamente en darle un marco a esta herramienta tecnológica que prevenga su uso indiscriminado, y sus efectos sean positivos para el progreso de la humanidad. No transformemos el enorme potencial benéfico de la Inteligencia Artificial en la bomba atómica del siglo XXI.
Últimas Noticias
Periodismo en redes sociales y antisemitismo: responsabilidad profesional y estándares democráticos
El caso de publicaciones que atribuyen responsabilidades colectivas por nacionalidad u origen, como los incendios en Chubut, reabre el debate sobre la ética del periodismo, el rol institucional de los medios y las eventuales consecuencias

La nación continental latinoamericana a la luz de la fe
El dominio de la tierra y los bienes naturales, según la tradición bíblica, implica responsabilidad colectiva y uso solidario para el bien común

UE–Mercosur: un acuerdo que abre una verdadera reinserción internacional de la Argentina
En tiempos de repliegue, proteccionismo selectivo y tensiones sistémicas, ambos bloques apostaron sabiamente por las reglas, por la institucionalidad y por una asociación estratégica birregional única
Milei, entre la agenda internacional y las urgencias locales
El Presidente busca mostrar capacidad de gestión y liderazgo frente a mercados desconfiados y una sociedad que demanda resultados concretos
Cien años
El relato libertario sobre el inicio de la decadencia argentina refleja los intereses de las clases acomodadas y deja fuera la experiencia de los trabajadores y los excluidos



