Después de lo sucedido Lobna Hemid fue a la policía para pedirles ayuda, es ahí cuando la mujer maltratada reveló un historial de abuso y maltrato por parte de su esposo, Bouthaer el Banaisati, quien fue encarcelado esa noche, pero liberado al día siguiente. Antes de que Lobna dejara la comisaría esa noche, la policía tuvo que determinar si corría peligro de ser atacada de nuevo y necesitaba ayuda. Un agente de policía respondió 35 preguntas con respuesta sí o no para introducirlas en un algoritmo llamado VioGén que ayudaría a generar una respuesta. Desafortunadamente siete semanas después, el maltratador apuñalase fatalmente a la a Lobna y después se quitase la vida a los 32 años.
VioGén
Esta historia ha puesto de manifiesto el uso de un algoritmo llamado VioGén por parte de las autoridades españolas para evaluar el riesgo de violencia de género. A pesar de su intención de proteger a las mujeres vulnerables y prevenir ataques repetidos en casos de violencia doméstica, el algoritmo ha sido objeto de críticas debido a sus fallos en la evaluación del riesgo. Según el Ministerio del Interior de España, aproximadamente el 8% de las mujeres consideradas de riesgo insignificante y el 14% de riesgo bajo por el algoritmo, informaron haber sido lastimadas nuevamente, según información de The New York Times.
Al menos 247 mujeres han sido asesinadas por sus parejas actuales o anteriores después de ser evaluadas por VioGén
Además, se ha revelado que al menos 247 mujeres han sido asesinadas por sus parejas actuales o anteriores después de ser evaluadas por VioGén, lo que ha generado un debate sobre la dependencia de algoritmos en la toma de decisiones relacionadas con la seguridad y protección de las víctimas de violencia de género.
Cómo se clasificaron los niveles de riesgo de 98 mujeres
El sistema policial de España tiene la capacidad de desestimar las recomendaciones de VioGén basándose en evidencias, aunque en el 95% de los casos se adhiere a las calificaciones de riesgo, según las autoridades. Y esto no es todo, los jueces también pueden utilizar los resultados al evaluar solicitudes de órdenes de restricción y otras medidas de seguridad.
Según Susana Pavlou, líder del Instituto Mediterráneo de Estudios de Género, el algoritmo "libera de alguna manera a la policía de evaluar la situación y las necesidades de la víctima", lo que lleva a que "las mujeres estén siendo olvidadas". Este algoritmo es parte de una tendencia global en la que los gobiernos recurren a algoritmos para tomar decisiones sociales, como en Estados Unidos, los Países Bajos y Gran Bretaña.
Aunque VioGén ha sido descrito como eficaz, no es perfecto
Aunque VioGén ha sido descrito como eficaz, no es perfecto. Desde que se empezó a utilizar, este algoritmo ha generado dudas sobre su eficacia y la capacidad de la policía para manejar la creciente cantidad de casos de violencia de género. A pesar de su evolución y actualizaciones, la confianza en el sistema ha sorprendido a algunos. A raíz de esto, se plantea la premisa de si la tecnología puede compensar la falta de expertos capacitados. Como justificación ante el uso de esta tecnología par tartar un tema tan delicado se alega que la cantidad de casos de violencia de género sobrepasa la capacidad de los equipos policiales, lo que plantea desafíos en la asignación de recursos.
Eficacia de VioGén y Casos Problemáticos
Para contextualizar, el programa VioGén, implementado en España para abordar la violencia contra las mujeres, utiliza un modelo estadístico para identificar a mujeres con mayor riesgo de abuso y diseñar respuestas estandarizadas para protegerlas. Aunque ha sido implementado a nivel nacional en la mayoría de España, algunos expertos expresan dudas sobre su eficacia. A pesar de su evolución y actualizaciones, persisten dudas sobre su eficacia y la capacidad de la policía para hacer frente a la creciente cantidad de casos de violencia de género.
Desafortunadamente, las expectativas y la realidad no se terminan de alinear, se han reportado casos en los que el sistema VioGén ha fallado en evaluar adecuadamente el riesgo, lo que ha llevado a consecuencias trágicas. Por ejemplo, en el caso de Stefany González Escarraman, a pesar de haber sufrido agresiones graves, VioGén determinó que corría un riesgo insignificante de sufrir abusos nuevamente. Esto se repitió en otros casos, como el de Eva Jaular, quien fue asesinada por su exnovio después de que VioGén la clasificara como de bajo riesgo.
Desde 2007, 247 de las 990 mujeres asesinadas en España por sus parejas actuales o anteriores habían sido previamente evaluadas por VioGén. De estas mujeres asesinadas, 55 habían sido clasificadas como de riesgo insignificante o bajo por VioGén, según cifras de The New York Times. Estos casos problemáticos han generado críticas hacia el sistema VioGén y han planteado interrogantes sobre su capacidad para predecir y proteger de manera efectiva a las mujeres en riesgo de violencia de género.
La implementación de algoritmos para tomar decisiones sociales plantea desafíos significativos
Es importante tener en cuenta que la implementación de algoritmos para tomar decisiones sociales plantea desafíos significativos, y es fundamental abordar las deficiencias y limitaciones de dichos sistemas para garantizar la protección efectiva de las víctimas de violencia de género.
El sistema VioGén ha sido criticado por clasificar incorrectamente a algunas mujeres, lo que ha llevado a tragedias que se podrían haber evitado. Además, la mala calidad de la información introducida en el sistema, el miedo, la vergüenza, la dependencia económica y otros factores pueden llevar a las víctimas a retener información, lo que afecta la evaluación de riesgos. Además, la falta de tiempo y recursos de la policía para investigar a fondo también influye en la precisión del sistema.
Algunas víctimas han expresado que el sistema sería más efectivo si estuviera dirigido por psicólogos u otros especialistas capacitados, en lugar de la policía. También se ha sugerido que se permita a las víctimas estar acompañadas por alguien de confianza durante el proceso de evaluación. Además, se ha planteado la posibilidad de incorporar inteligencia artificial a VioGén para mejorar su capacidad de extracción de datos y aprendizaje autónomo.
La Tecnología y la Responsabilidad Humana
Algunos expertos han señalado que si bien la tecnología, incluida la inteligencia artificial, puede ayudar en la solución de problemas sociales, también podría reducir la responsabilidad humana en la toma de decisiones. Se ha destacado la importancia de que las personas mantengan el control sobre las decisiones, en lugar de depender exclusivamente de la IA. Además, se ha mencionado que los sistemas nunca serán perfectos, pero tampoco lo es el criterio humano, lo que plantea desafíos continuos en la protección de las víctimas de violencia de género.