Como si fuera una película de Steven Spielberg, estas es la tecnología que predice si alguien es asesino

Reino Unido está desarrollando un sistema basado en algoritmos y análisis de datos personales y los recopilados por las autoridades

Guardar
Reino Unido desarrolla sistema que
Reino Unido desarrolla sistema que predice asesinatos basado en algoritmos y análisis de datos personales. (Imagen Ilustrativa Infobae)

En un futuro cercano, el Reino Unido podría estar a la vanguardia de una tecnología que recuerda a las escenas de la película Minority Report, dirigida por Steven Spielberg, en la que una unidad policial anticipa los crímenes antes de que estos sucedan. Todo gracias a un sistema que puede predecir si alguien se convertirá en un asesino.

El gobierno británico ha iniciado el desarrollo de este programa, con la ayuda de algoritmos y utilizando información personal de aquellos que ya están en el radar de las autoridades. Algo muy similar a lo que hizo la película de 2002, protagonizada por Tom Cruise, que imaginó un mundo con una tecnología similar.

Cuál es el origen del proyecto y la tecnología detrás de la predicción

Este proyecto, originalmente conocido como el “Proyecto de predicción de homicidios”, ha cambiado su nombre por “Intercambio de datos para mejorar la evaluación de riesgos”, pero su propósito sigue siendo el mismo: predecir quién tiene más probabilidades de convertirse en asesino.

La herramienta está siendo desarrollada por el Ministerio de Justicia británico (MoJ), en colaboración con la Policía Metropolitana de Londres, la Policía de Manchester y el Ministerio del Interior. La tecnología detrás del sistema se basa en el uso de algoritmos que analizan miles de datos provenientes de diversas fuentes oficiales, como los servicios de libertad condicional y los antecedentes de las fuerzas de seguridad.

Algoritmos utilizan información de antecedentes
Algoritmos utilizan información de antecedentes penales, salud mental y vulnerabilidad para evaluar riesgos de homicidio. (Imagen Ilustrativa Infobae)

Según la información filtrada por la organización de investigación Statewatch, que destapó el proyecto mediante solicitudes de acceso a la información, entre 100.000 y 500.000 personas cuyos datos han sido recopilados por las autoridades podrían estar involucradas en este proceso de análisis.

El sistema se alimenta de información altamente detallada y sensible sobre personas que ya tienen antecedentes penales, así como de datos de víctimas, testigos, personas desaparecidas y otras personas en situaciones vulnerables.

El Ministerio de Justicia ha declarado que el propósito es desarrollar modelos de inteligencia artificial que puedan identificar “indicadores más potentes del riesgo de cometer homicidio”. Entre los datos recopilados se encuentran factores como los problemas de salud mental, las adicciones, el historial de autolesiones y el estado de vulnerabilidad, que pueden tener un “poder predictivo significativo”.

Este uso de datos personales sensibles es una de las principales controversias que ha suscitado el proyecto, especialmente entre defensores de los derechos civiles.

Entre 100.000 y 500.000 personas
Entre 100.000 y 500.000 personas podrían ser analizadas por el proyecto de predicción de homicidios. (REUTERS/Sodiq Adelakun)

El algoritmo analiza esta información y busca patrones que puedan predecir comportamientos violentos en el futuro. Al igual que en la película de Spielberg, donde la unidad de PreCrimen detenía a los futuros delincuentes antes de que cometieran sus crímenes, este sistema pretende anticiparse a los asesinatos y otros crímenes graves, identificando a los individuos con mayor riesgo de cometer homicidios.

Sin embargo, a diferencia de la ficción, el proyecto no pretende usar “precognitivos” con poderes psíquicos, sino datos recopilados de fuentes oficiales.

El dilema ético de la implementación de esta tecnología

A pesar de sus aspiraciones de mejorar la seguridad pública, este sistema ha sido objeto de debate. Organizaciones como Statewatch y defensores de los derechos humanos han calificado el proyecto como “escalofriante y distópico”.

Argumentan que el uso de algoritmos para predecir crímenes futuros puede llevar a una discriminación estructural, especialmente hacia las comunidades minoritarias y las personas de bajos recursos. La preocupación principal radica en que los datos recopilados por las fuerzas de seguridad podrían ser inherentemente sesgados, lo que haría que el sistema refuerce la discriminación racial y social.

Investigadora denuncia que el sistema
Investigadora denuncia que el sistema amplifica prejuicios y utiliza datos intrusivos como salud y adicciones. (Imagen Ilustrativa Infobae)

El análisis de datos históricos demuestra que los modelos de predicción utilizados en otros contextos por el Ministerio de Justicia ya han mostrado fallas, especialmente al clasificar de manera menos precisa a los delincuentes de etnia negra en comparación con los de etnia blanca.

Investigaciones previas han señalado que los algoritmos pueden replicar y amplificar los sesgos presentes en el sistema judicial, lo que podría llevar a que ciertas comunidades, ya marginalizadas, sean aún más estigmatizadas y perfiladas como potenciales criminales. En este sentido, el nuevo sistema podría terminar reforzando la discriminación estructural del sistema judicial penal británico.

Sofia Lyall, investigadora de Statewatch, expresó su preocupación señalando que “los sistemas algorítmicos para predecir delitos son inherentemente defectuosos”, y agregó que este tipo de herramientas automatizadas no solo “perfila a las personas como criminales violentos antes de que hagan algo”, sino que también utilizan datos extremadamente sensibles sobre salud mental, adicciones y discapacidades, lo que los hace “altamente intrusivos y alarmantes”.

La investigadora también hizo un llamado al Ministerio de Justicia para que detuviera el desarrollo de este sistema y se enfocara en “invertir en servicios de bienestar social genuinamente solidarios”.