domingo, 18 de junho de 2023

Crime: sextortion cresce rapidamente


O FBI emitiu um alerta dando conta do rápido aumento do número de casos de extorsão envolvendo fotos falsas criadas com a ajuda de ferramentas de inteligência artificial.

Nesses casos, que vem sendo chamados
“sextortion”, os criminosos utilizam fotos da vítima postadas nas redes sociais e as editam, criando imagens de cunho sexual de aspecto muito realista.

A seguir, as imagens são enviadas à vítima, acompanhadas de pedidos de dinheiro para que não sejam divulgadas na internet – há casos também de seu uso para assédio ou vingança. 

O FBI recomenda que o público "tenha cautela" ao compartilhar suas fotos online, mas esse é um conselho que praticamente ninguém segue.

Com a tecnologia hoje disponível, apenas algumas    imagens ou vídeos são suficientes para criar material desse tipo, usualmente chamado deepfake.

Deepfakes já existem há alguns anos; em meados da década de 2010,  usuários de fóruns como o Reddit começaram compartilhar conteúdo sexualmente explícito de celebridades femininas – ficaram famosos os deepfakes de Michelle Obama, esposa do então presidente dos Estados Unidos Barack Obama.

Embora continuem a acontecer tentativas de combater a disseminação desse conteúdo, atividade considerada crime em quase todo o mundo, ferramentas para criar deepfakes são facilmente acessíveis – o portal Techspot diz que a empresa chinesa Tencent oferece serviços de criação de deepfakes com preços a partir de US$ 145, bastando que o cliente lhes envie fotos da vítima e uma descrição das imagens que pretende obter.

A internet é uma selva – no mau sentido da palavra – e cada vez maiores cuidados são necessários. 

domingo, 11 de junho de 2023

Deep fakes cada vez mais sofisticadas



 

De maneira simples, podemos chamar de deep fakes os vídeos e áudios criados com o uso de inteligência artificial que trazem informações falsas.

Há muito tempo deep fakes vem sendo criadas, mas ferramentas como o ChatGPT, DALL-E e similares estão permitindo que falsificações mais sofisticadas sejam criadas de maneira mais fácil, consequentemente aumentando a probabilidade da ocorrência de problemas graves derivados de sua disseminação.

Um problema desse tipo ocorreu há alguns dias, quando uma imagem falsa de uma explosão ocorrida no Pentágono circulou pelas redes sociais; a imagem era claramente fabricada, mas isso não impediu que vários portais de notícias a divulgassem.

A polícia recebeu diversas comunicações  de pessoas que acreditavam que outro ataque como o feito às Torres Gêmeas estivesse em andamento; o   caos que se seguiu provocou um breve  choque no mercado de ações.

Tudo se esclareceu rapidamente, mas o fato deixou claro que as consequências poderiam ter sido muito graves, justificando os trabalhos que startups e grandes empresas que atuam na área de inteligência artificial vem desenvolvendo para criar ferramentas eficazes para detecção de deep fakes.

Alguns desses esforços estão sendo feitos há anos, mas o crescimento muito rápido  de ferramentas de inteligência artificial generativa despertou o senso de urgência de muitos, levando a mais investimentos e esforços no sentido de encontrar formas para  detectar mais facilmente falsificações como essas.

Algumas empresas, como a startup Optic e o FakeCatcher da Intel, estão se voltadas ao desenvolvimento de ferramentas que permitam identificar áudios e vídeos falsos, enquanto outras, como a Fictitious.AI, estão concentrando seus esforços em tecnologia que permita identificar textos gerados por chatbots.

Profissionais da área acreditam que essas ferramentas podem trazer algum grau de  segurança, mas é oportuno lembrar que os criminosos estão sempre um passo à frente.