De maneira simples, podemos chamar de deep fakes os vídeos e
áudios criados com o uso de inteligência artificial que trazem informações
falsas.
Há muito tempo deep fakes vem sendo criadas, mas ferramentas
como o ChatGPT, DALL-E e similares estão permitindo que falsificações mais sofisticadas
sejam criadas de maneira mais fácil, consequentemente aumentando a
probabilidade da ocorrência de problemas graves derivados de sua disseminação.
Um problema desse tipo ocorreu há alguns dias, quando uma
imagem falsa de uma explosão ocorrida no Pentágono circulou pelas redes sociais;
a imagem era
claramente fabricada, mas isso não impediu que vários portais de notícias a
divulgassem.
A polícia recebeu diversas comunicações de pessoas que acreditavam que outro ataque como
o feito às Torres Gêmeas estivesse em andamento; o caos
que se seguiu provocou um breve choque
no mercado de ações.
Tudo se esclareceu rapidamente, mas o fato deixou claro que as
consequências poderiam ter sido muito graves, justificando os trabalhos que startups
e grandes empresas que atuam na área de inteligência artificial vem
desenvolvendo para criar ferramentas eficazes para detecção de deep fakes.
Alguns desses esforços estão sendo feitos há anos, mas o crescimento
muito rápido de ferramentas de
inteligência artificial generativa despertou o senso de urgência de muitos,
levando a mais investimentos e esforços no sentido de encontrar formas para detectar mais facilmente falsificações como
essas.
Algumas empresas, como a startup Optic e o FakeCatcher da Intel, estão
se voltadas ao desenvolvimento de ferramentas que permitam identificar áudios e
vídeos falsos, enquanto outras, como a Fictitious.AI, estão concentrando seus
esforços em tecnologia que permita identificar textos gerados por chatbots.
Profissionais da área acreditam que essas ferramentas podem trazer algum
grau de segurança, mas é oportuno
lembrar que os criminosos estão sempre um passo à frente.