Un hombre es acusado erróneamente de un crimen por un algoritmo

Puede ser el primer caso registrado en la historia. Un software de procesamiento de imagen identificó a un hombre de Míchigan como el culpable de un crimen que no cometió. Al final, se demostró que el algoritmo de inteligencia artificial de identificación de rostros había dado un resultado erróneo.

arrested.png

La policía de Detroit intentaba averiguar quién robó cinco relojes de una tienda. Los investigadores tomaron un video de seguridad que había grabado el robo e identificaron al sospechoso con un software de reconocimiento facial: Robert Julian-Borchak Williams, 42 años, de Farmington Hills, Michigan, a unos 25 kilómetros al noroeste de Detroit.

La policía detuvo a Williams en su casa, mientras estaba parado en su jardín, junto a su esposa y dos hijas, de 2 y 5 años de edad, que lloraban mientras veían cómo introducían a su padre en el coche de la policía. Su esposa, Melissa Williams, quería saber a dónde llevaba la policía a su marido. «Búscalo en Google«, recuerda que un oficial le dijo. Robert Williams fue llevado a una sala de interrogatorios y la policía puso tres fotos delante de él: dos fotos tomadas por la cámara de vigilancia de la tienda y una foto de la licencia de conducir de Williams.

«Cuando miro la foto del tipo, sólo veo a un hombre de color. No veo ningún parecido a mi. No creo que se parezca en nada a mí, les dije», contaba Williams en una entrevista con NPR. «El detective da la vuelta a la tercera página y dice: ‘supongo que el ordenador también se equivocó’.

«Espero que no piense que todos los negros se parecen«, le contestó Williams, que estuvo detenido durante 30 horas y luego fue puesto en libertad bajo fianza hasta la audiencia del tribunal sobre el caso.

En la audiencia, un fiscal del condado de Wayne anunció que se retiraban todos los cargos contra Williams por falta de pruebas. Los expertos en derechos civiles dicen que Williams es el primer ejemplo documentado en los Estados Unidos de alguien que ha sido arrestado injustamente basado en un falso positivo producido por la tecnología de reconocimiento facial.

Muy probablemente, veamos este tipo de identificaciones erróneas más a menudo, debido al creciente uso de esta tecnología que, aún, tiene margen de mejora.

Fuente: New York Times

Deja un comentario