20200906052547
20200906052547

H inmeros debates sobre o uso de tecnologias de reconhecimento facial como prova condenatria de crimes. Por utilizarem testes em pessoas brancas, os algoritmos possuem uma probabilidade entre cinco e dez vezes mais de errar o reconhecimento facial em pessoas negras.

Primeiro preciso compreender como funciona um algoritmo de reconhecimento facial. Para que os algoritmos funcionem, preciso usar um modelo para treinar a inteligncia artificial. A maioria desses modelos baseada em imagens de pessoas brancas ou asiticas.

Isso significa que um algoritmo de reconhecimento facial consegue identificar mais facilmente asiticos e brancos do que pessoas negras, em especial, mulheres negras.

Carros autnomos fazem uso da tecnologia para diferenciarem pessoas, animais, outros veculos e objetos. Fonte: Shutterstock

Dito isso, resultados de umaanlise feita em julho de 2019, mostraram que o software de uma das maiores empresas de reconhecimento facial, a francesa Idemia, possui mais chances de identificar de forma incorreta mulheres negras do que mulheres brancas ou homens brancos e negros.

Em configuraes de sensibilidade, o algoritmo identificou de forma errada mulheres brancas numa taxa de uma para cada 10 mil, no caso de mulheres negras, a taxa foi de uma para 1.000, ou seja, dez vezes mais propcio a errar o reconhecimento facial em mulheres negras.

Segundo o NIST (National Institute of Standards and Technology), em 2018, os algoritmos de inteligncia artificial se tornaram 25 vezes melhores do que antes. E erram em cerca de 0,2%. No entanto, essas estatsticas no so as mesmas para pessoas negras.

Isto ficou bem visvel em um caso ocorrido em 2019, em que um homem chamado Robert William foi preso,na frente da sua esposa e das suas duas filhas. Ele fora acusado de ser o autor de um roubo de relgio em uma joalheria. A polcia de Detroit exibiu a imagem de William para um segurana do shopping em que ocorreu o roubo, o problema que o segurana no presenciou o crime.

S haviam duas semelhanas entre Robert e o real culpado pelo crime: eles estavam acima do peso e eram negros.

Imagem do IBM Watson
Imagem do IBM Watson
IBM parou temporariamente suas vendas de sistema de reconhecimento facial para os rgos de polcia norte-americanos. Fonte: Shutterstock/Reproduo

Tais erros motivaram as gigantes de tecnologias a pararem, temporariamente, as vendas dos seus produtos de reconhecimento facial. Empresas como IBM, Microsoft e Amazon encerraram suas vendas em junho de 2020 para rgos de polcia americanos e solicitaram aocongresso uma lei que regulasse o uso do reconhecimento facial.

Infelizmente, os estudos que demonstraram que tais tecnologias no so eficazes no reconhecimento de pessoas negras no foram suficientes para evitar que outra pessoa fosse acusada de um crime que no cometeu. E na mesma cidade em que Robert William foi preso.

O caso ocorreu em julho de 2020. Michael Oliver foi acusado de ter jogado o telefone de um professor no cho, quebrando sua tela. Ele foi condenado pelo crime de furto pelo incidente que ocorreu em maio de 2019.

S
S
esquerda, uma foto do suspeito de pegar o celular do professor. direita, uma foto de Michael Oliver, acusado injustamente pelo crime. Fonte: Detroit Free Press/Reproduo

O uso de tecnologia de reconhecimento facial deve ser feito com extrema cautela, em especial por rgos de defesa como as polcias. Um exemplo disto um estudo que mostra que a tecnologia erraria em 96% dos casosde identificao de suspeitos na polcia de Detroite que demonstra a ineficcia da tecnologia no combate ao crime.

Fonte: Detroit Free Press

Source link

Curtir isso:

Curtir Carregando…

Relacionado

Fonte: fogocruzadodf.com.br/tecnologia/2020/09/12/reconhecimento-facial-incrimina-erroneamente-pessoas-negras

LEAVE A REPLY

Please enter your comment!
Please enter your name here