España modifica el sistema de atención a la violencia doméstica tras críticas

Reportajes Especiales - News

Guardar

Domestic ViolencePoliceWomen and GirlsComputers and the InternetSpainSoftware

El programa VioGén identifica a posibles víctimas recurrentes a partir de un formulario. Una investigación del Times del año pasado detectó fallos en la operación.

El gobierno de España anunció esta semana una revisión significativa de un sistema con el que la policía, a partir de un algoritmo, identifica a posibles víctimas recurrentes de violencia doméstica, después de que las autoridades enfrentaran cuestionamientos sobre la eficacia del sistema.

El sistema, VioGén, requiere que los agentes de policía formulen una serie de preguntas a la víctima. Las respuestas se introducen en un programa informático que genera una puntuación --desde riesgo nulo a riesgo extremo-- destinada a señalar a las mujeres más vulnerables al abuso recurrente. La puntuación ayuda a determinar qué protección policial y otros servicios puede recibir una mujer.

Una investigación de The New York Times del año pasado descubrió que la policía dependía en gran medida de esta tecnología, y casi siempre aceptaba las decisiones tomadas por el sistema VioGén. Algunas mujeres a las que el algoritmo consideraba sin riesgo o con bajo riesgo de sufrir más daños posteriormente sufrieron nuevos abusos, incluidas decenas que fueron asesinadas, según descubrió el Times.

Las autoridades españolas dijeron que los cambios anunciados esta semana formaban parte de una actualización del sistema, introducido en 2007, planificada durante mucho tiempo. Dijeron que el sistema había ayudado a los departamentos de policía con recursos limitados a proteger a las mujeres vulnerables y a reducir el número de agresiones repetidas.

En el sistema actualizado, VioGén 2, el software ya no podrá marcar que las mujeres no enfrentan ningún riesgo. La policía también deberá introducir más información sobre la víctima, lo que, dijeron las autoridades, permitirá realizar predicciones más precisas.

Otros cambios pretenden mejorar la colaboración entre los organismos gubernamentales que intervienen en casos de violencia contra las mujeres, como facilitar el intercambio de información. En algunos casos, las víctimas recibirán planes de protección personalizados.

"El machismo está llamando a nuestras puertas y lo está haciendo con una violencia que hace tiempo que no veíamos", dijo Ana Redondo, ministra de Igualdad, en una rueda de prensa el miércoles. "No es el momento de dar un paso atrás. Es el momento de dar un salto adelante".

El uso de España de un algoritmo para orientar el tratamiento de la violencia de género es un ejemplo de gran alcance de cómo los gobiernos están recurriendo a algoritmos para tomar decisiones sociales importantes, una tendencia que se espera que crezca con el uso de la inteligencia artificial. El sistema se ha estudiado como un modelo potencial para gobiernos de otros lugares que intentan combatir la violencia contra las mujeres.

VioGén se creó con la creencia de que un algoritmo basado en un modelo matemático puede servir como herramienta imparcial para ayudar a la policía a encontrar y proteger a mujeres que, de otro modo, podrían pasar desapercibidas. Entre las preguntas con respuestas de opción sí o no que se plantean están cuestiones como: ¿se utilizó un arma? ¿Había problemas económicos? ¿El agresor mostró comportamientos controladores?

Las víctimas clasificadas como de mayor riesgo recibieron más protección, incluidas patrullas regulares por su casa, acceso a un refugio y vigilancia policial de los movimientos de su agresor. Las que obtuvieron puntuaciones más bajas recibieron menos ayuda.

Hasta noviembre, España tenía más de 100.000 casos activos de mujeres que habían sido evaluadas por VioGén, y alrededor del 85 por ciento de las víctimas estaban clasificadas como de bajo riesgo de volver a ser maltratadas por su agresor. Los agentes de policía en España están entrenados para anular las recomendaciones de VioGén si las pruebas lo justifican, pero el Times descubrió que las puntuaciones de riesgo se aceptaban aproximadamente el 95 por ciento de las veces.

Victoria Rosell, jueza en España y exdelegada del gobierno contra la violencia de género, dijo que era necesario un periodo de "autocrítica" para que el gobierno mejorase VioGén. Dijo que el sistema podría ser más preciso si extrajera información de otras bases de datos gubernamentales, incluidos los sistemas de asistencia sanitaria y educación.

Natalia Morlas, presidenta de Somos Más, un grupo de defensa de los derechos de las víctimas, dijo que acogía con satisfacción los cambios, los cuales esperaba condujeran a una mejor evaluación del riesgo por parte de la policía.

"El calibrar bien el riesgo de la víctima es tan importante que puede salvar vidas", dijo Morlas. Añadió que era fundamental mantener una estrecha supervisión humana del sistema porque una víctima "tiene que ser tratada por personas, no por máquinas".

Adam Satariano es corresponsal de tecnología del Times, con sede en Londres. Más de Adam Satariano

Guardar