sexta-feira, 22 de janeiro de 2021

INTELIGÊNCIA ARTIFICIAL PRECISA SER USADA COM CUIDADO

 

Em dezembro de 2020, a startup sul-coreana Scatter Lab criou um chatbot, uma robô de software chamada Lee Luda, para conversar com pessoas que se sentiam solitárias. Baseada em Inteligência Artificial, Lee logo se mostrou problemática apresentando comportamento homofóbico e discriminatório, além de levantar preocupações sobre privacidade.

A robô foi projetada para representar uma jovem universitária de 20 anos. Por meio da tecnologia de “deep learning”, ela foi treinada com dados coletados do aplicativo Science Love, que é uma espécie de rede social para casais, que permite que os usuários marquem encontros e compartilhem fotos, além de analisar esses relacionamentos. Assim, as respostas de Lee Luda são baseadas no que ela aprendeu com essas informações e históricos de conversas no Science Love. 

Segundo o jornal The Korea Herald, Lee Luda passou a fazer comentários agressivos e ofensivos sobre minorias, conforme denunciaram alguns usuários. Ao falar sobre lésbicas, por exemplo, Luda utilizava o termo “nojentas” e dizia odiar pessoas trans. Em algumas conversas, ela dizia que pessoas com deficiências deveriam se suicidar. 

Diante dessas falhas, a empresa decidiu suspender o serviço, afirmando que os comentários preconceituosos da robô não refletem as ideias da Scatter Lab. Em comunicado, a companhia acrescentou que “Luda ainda está na infância, começou a conversar com as pessoas há pouco tempo e ainda tem muito a aprender”. 

Outro fato preocupante na história é que os usuários afirmaram não ter conhecimento de que seus dados estavam alimentando um robô, o que pode caracterizar uma violação de privacidade. Algumas dessas pessoas afirmaram que pretendem entrar com uma ação contra a empresa pela falta de transparência. 

O incidente faz lembrar um caso parecido que ocorreu com a Microsoft em 2016. Na época, a empresa havia criado uma robô chamada Tay para conversar com as pessoas nas redes sociais. O projeto acabou sendo encerrado após a robô começar a fazer comentários racistas, antissemitas e sexistas. 

Inteligência Artificial já é e certamente será muito mais útil, mas há necessidade de muitos cuidados. Imaginemos se, ao invés de apenas ser grosseira, Lee pudesse disparar uma arma...

quinta-feira, 14 de janeiro de 2021

20 ANOS DE WIKIPEDIA

A Wikipédia está completando 20 anos,
disponibilizando    55 milhões de artigos escritos por voluntários em 300 idiomas. É o 13º site mais visitado em todo mundo.

"O único caminho de longo prazo para a paz, prosperidade e liberdade é o conhecimento”, escreveu o fundador da Wikipedia Jimmy Wales, pedindo aos usuários que continuem apoiando o projeto “por um mundo mais atento e educado”.

A enciclopédia  nasceu em 15 de janeiro de 2001 e ainda se baseia no modelo econômico de captação de recursos dos internautas.

Sem publicidade, sem cookies para capturar e revender dados do usuário, vive apenas doações, quase sempre pequenas.

Ao longo dos anos, a Wikipedia defendeu a liberdade na Internet e questões como direitos autorais, vigilância e censura.  

Mas, claro, como todas as plataformas web, não é perfeita e ao longo dos anos surgiram algumas controvérsias, especialmente levantadas por edições de seu conteúdo.

Visando minimizar esses problemas, a Fundação Wikimedia, mantenedora da Wikipedia, está produzindo um novo código de ética que deve entrar em vigor nos próximos meses. 
 
A Wikipedia é uma das melhores coisas que a internet nos trouxe.

segunda-feira, 11 de janeiro de 2021

POLÍCIA USA TECNOLOGIA DE RECONHECIMENTO FACIAL PARA IDENTIFICAR INVASORES DO CAPITÓLIO

O aplicativo de reconhecimento facial da Clearview AI tem registrado picos de uso desde a semana passada. Mas não por usuários comuns: a polícia dos Estados Unidos está usando a tecnologia para rastrear apoiadores pró-Trump que invadiram o Capitólio.

De acordo com o New York Times o CEO da Clearview AI, Hoan Ton-That, disse que o aplicativo teve um salto de 26% no volume de pesquisas em 7 de janeiro em comparação com as médias normais dos dias de semana. Cerca de 2.400 agências de polícia em todo o país têm contratos para usar o software de reconhecimento facial da Clearview, e várias dessas agências têm recorrido ao software para ajudar nas investigações. 

Detetives do Departamento de Polícia de Miami estão usando a tecnologia para identificar os manifestantes em imagens e vídeos do ataque, e encaminhar pistas suspeitas para o FBI. 

No início desta semana, o Wall Street Journal informou que um departamento de polícia do Alabama também estava empregando a tecnologia de Clearview para identificar rostos em imagens e enviar possíveis correspondências para investigadores federais.

Mesmo que a tecnologia da Clearview esteja sendo usada para algo útil à sociedade, isso não a torna menos livre de futuras investigações envolvendo privacidade. Outras ferramentas de reconhecimento facial usadas pela polícia dependem de bancos de dados de fotos fornecidas pelo governo – ou seja, imagens de carteira de motorista ou documentos de identificação. 

No entanto, a Clearview disse que seu banco de dados usa cerca de 3 bilhões de imagens descartadas de sites, redes sociais e outros servidores públicos, uma prática que tem sido criticada por ativistas das liberdades civis que argumentam que os dados são coletados sem o consentimento das pessoas que estão sendo fotografadas.

Como resultado, a empresa está atualmente travando batalhas jurídicas em várias frentes. A Clearview suspendeu as operações no Canadá depois que o país abriu uma investigação para saber se a empresa violou as leis locais de proteção de informações pessoais online. O procurador-geral do estado de Vermont abriu um processo contra a empresa, alegando violações de várias leis estaduais. Gigantes da tecnologia, como Twitter e Google, enviaram avisos à Clearview para impedir a startup de extrair dados de suas plataformas.