Cómo puede un algoritmo prevenir asesinatos? - y cuáles son los desafíos al usarlo.
En julio de 2013, un hombre de 44 años llamado Bijan Ebrahimi fue apuñalado y golpeado hasta la muerte en Bristol, una ciudad al sur de Inglaterra. Su asesino, un vecino, derramó gasolina sobre su cuerpo y le prendió fuego a unos 100 metros de su casa. Ebrahimi, quién nació en Irán pero residía en Reino Unido desde hace más de una década, cuando llegó al país como refugiado, había sido falsamente acusado por su asesino de ser un pedófilo. En 73 ocasiones, durante un periodo de ocho años, Ebrahimi había denunciado a la policía que estaba siendo víctima de delitos por motivos raciales. Sus quejas no fueron escuchadas y un informe sobre su muerte concluyó que tanto el Ayuntamiento de Bristol como la policía fueron culpables de racismo institucional. "Fue un punto de inflexión en cuanto a lo que respecta a los datos", dice Jonathan Dowey, quien dirige un pequeño grupo de analistas de datos en las fuerzas policiales de Avon y Somerset, responsables de Bristol y otras áreas rurales de la zona.
La pregunta que la policía comenzó a preguntarse fue:
"¿Podríamos usar nuestros datos de manera más inteligente?" Una investigación sobre la libertad de información del grupo por los derechos civiles Liberty descubrió recientemente que al menos 15 fuerzas policiales en Reino Unido han usado o planean usar algoritmos -fórmulas matemáticas computacionales- para combatir el crimen. Y es probable que en pocos años todas las fuerzas policiales del país utilicen ese método. En Estados Unidos
la policía de Chicago, la ciudad con el índice más alto de criminalidad, ya lo hace; se trata de un algoritmo que asigna puntuaciones con base en arrestos, disparos, afiliaciones con pandillas y otras variables para predecir probabilidades de dar o recibir un disparo. También se han usado en Italia para luchar contra la mafia. Tras la muerte de Ebrahimi, la policía de Avon y Somerset comenzó a experimentar con software para ver si podían identificar riesgos de agresores, pero también de víctimas potenciales.
¿Cuándo, dónde, quién?
Los humanos somos
susceptibles de todo tipo de sesgos. Y, a diferencia de las computadoras, no somos buenos a la hora de detectar patrones; por ejemplo, si se han producido varias llamadas desde una misma dirección. Cuando la policía de Bristol ejecutó a posteriori un modelo predictivo para ver si la tragedia puso haberse evitado, la dirección de Ebrahimi saltó en el sistema como una de las 10 principales preocupaciones. Diferentes fuerzas policiales en el país están ahora probando distintos algoritmos. La policía de West Midlands -que se ocupa de los condados metropolitanos de Inglaterra- usa un software para detectar
patrones entre crímenes y épocas del año, días, semanas y horas en que se cometen. La de West Yorkshire, otro condado en el norte del país, usa un sistema para predecir
zonas de alto riesgo. La de Durham, en el noreste de Inglaterra, estuvo cooperando con la Universidad de Cambridge en un programa para diseñar un algoritmo capaz de predecir si una persona arrestada por un crimen tiene
probabilidades de volver a delinquir o si es seguro que vuelvan a su comunidad. El algoritmo permite a la policía usar alternativas a operaciones costosas y a menudo frustradas. En cuanto a la policía de Avon y Somerset, ahora usa algoritmos para todo tipo de cosas. Una de ellas sirve para averiguar qué medidas tomar para encontrar a personas desaparecidas. Otra es una aplicación sobre las miles de llamadas que reciben cada día, que les ha permitido reducir el porcentaje de llamadas sin contestar de un 20% a un 3%.
"Estamos ante una tormenta de datos", dice Jonathan Dowey. "Ya no es viable tener un ejército de humanos tratando de determinar riesgos y vulnerabilidades por su cuenta".
Lo que preocupa
Puede que el público ignore en gran medida cómo los algoritmos están penetrando cada aspecto del sistema judicial -incluido, por ejemplo, un papel en la sentencia y en determinar si los presos reciben libertad condicional- pero los grupos de derechos civiles cada vez están más alarmados. Hannah Couchman, de Libery, dice que "en lo que respecta a las herramientas de vigilancia predictiva,
su uso debe cesar". Una de las preocupaciones tiene que ver con la supervisión humana. La policía de Avon y Somerset dice que, en definitiva, los algoritmos solo son informativos y que los humanos
siempre tienen la decisión final. Sin embargo, aunque esta es la práctica habitual es muy probable que a medida que las fuerzas policiales (fuera y dentro de Reino Unido) se vayan acostumbrando al uso de algoritmos, su dependencia hacia ellos crezca. No se trata de una analogía exacta, pero los conductores que usan sistemas de navegación satelital suelen terminar creyendo que el GPS sabe más que ellos.