terça-feira, 7 de agosto de 2018

INTELIGÊNCIA ARTIFICIAL MAL USADA PODE GERAR PROBLEMAS

O portal Superinteressante publicou matéria dando conta que no final de 2016, a Amazon lançou o Rekognition, um serviço online que usa inteligência artificial para analisar e classificar imagens. 

No ano seguinte, a empresa começou a oferecê-lo para a polícia: várias cidades dos EUA, como Orlando e Washington County (Oregon), se tornaram usuárias do sistema, que consulta bancos de dados com dezenas de milhões de fotos e consegue reconhecer até 100 pessoas numa só imagem.

Isso despertou o receio de que o Rekognition possa ser usado para monitorar a população e gerou polêmica nos Estados Unidos, onde 70 ONGs assinaram uma carta pedindo à Amazon que pare de fornecer essa tecnologia para uso policial

Mas ele tem uma característica que pode ser ainda pior: é impreciso. Uma experiência feita pela American Civil Liberties Union, uma entidade de defesa dos direitos civis, comparou fotos de todos os congressistas (deputados federais) dos EUA com uma base de dados com 25 mil imagens de pessoas que haviam sido presas. O teste custou apenas US$ 12 (pagos à Amazon pelo uso do serviço).

O robô comparou todos os rostos, e afirmou que 28 dos 425 deputados eram criminosos. O engano significa que, na prática, o Rekognition pode levar a polícia a prender as pessoas erradas. Em alguns grupos, como o de deputados afrodescendentes, a margem de erro foi ainda maior – 40% dos parlamentares injustamente acusados eram negros.

A Amazon se defendeu afirmando que a ACLU usou o software de forma errada, e que a polícia não confia cegamente nele (toda identificação feita pelo sistema tem de ser revisada por um humano).

Com tudo que temos visto sobre políticos, será que o software estava mesmo errado?????