¿Predicción de delitos o discriminación?

Organismos de Derechos Humanos cuestionan el uso de un software utilizado para anticipar delitos.

Por la Redacción de Noticias La Insuperable

qqq3

La polémica ya está servida en el Reino Unido tras la investigación realizada por Liberty, un grupo en defensa de los derechos humanos que ha afirmado que cada vez más fuerzas policiales del país trabajan con softwares de predicción de crímenes.

Podría parecer que esto es una buena noticia, ya que las herramientas tecnológicas ayudan a mejorar el trabajo realizado por los expertos. Sin embargo, y como denuncia el grupo, solo es un método más para reforzar la discriminación contra las minorías de la población británica, nos comenta Beatriz Alcántara desde UrbanTecno.

A centímetros de Minority Report, la policía en el mundo ha ido adaptando tecnología para combatir el crimen, ya hemos dado cuenta de cómo la policía china comenzó a utilizar anteojos especiales para identificar delincuentes. Pero ahora, en el Reino Unido, un software para predecir delitos ha desatado la polémica.

qqq2

Dos son los tipos de software utilizados por estas instituciones. Por un lado se encuentra el mapa predictivo, que trabaja con un algoritmo que se encarga de predecir qué zonas de una ciudad son las que tienden a albergar más delitos. De esta forma, la policía puede enviar allí más patrullas antes de que sucedan los problemas.

qqq1

En segundo lugar está la “evaluación de riesgo individual”, que trabaja prediciendo qué probabilidad hay de que una persona cometa o sea víctima de un delito, según explica BBC. IBM, Microsoft, Predpol y Palantir son algunas de las compañías que están desarrollando este tipo de softwares para la policía.

Policing by machine: Predictive policing and the threat to our rights” (algo así como Vigilancia por máquinas: vigilancia policial predictiva y la amenaza a nuestros derechos), es el nombre del estudio que ha puesto en serio compromiso el trabajo que realizan 14 fuerzas policiales actualmente.

Hannah Couchman, autora del estudio, ha explicado que los algoritmos están influenciados por datos imparciales, por lo que incorporan ya enfoques discriminatorios al trabajar a la vez que agregan una capa tecnológica neutral que da una falsa validez a sus conclusiones.

El estudio no solo ha denunciado el riesgo de discriminación que conlleva el uso de estos algoritmos, sino también la grave falta de transparencia de las fuerzas policiales al utilizarlos. Además, estos softwares no cuentan con la supervisión adecuada y no hay pruebas aún de que ayuden a construir comunidades más seguras. Así lo explica el informe:

“Estos programas informáticos opacos utilizan algoritmos para analizar hordas de datos policiales sesgados, identificando patrones e incorporando un enfoque a la vigilancia policial que se basa en perfiles discriminatorios. [Ellos] afianzan las desigualdades preexistentes mientras se disfrazan de innovaciones rentables”.

qqq

Anuncios

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s