De maneira bastante simplificada podemos definir deepfake
como uma técnica de desinformação que usa inteligência artificial para criar
vídeos falsos, que mostram fatos que não aconteceram.
A rede de TV britânica Channel 4 analisou
cinco dos sites de deepfakes mais visitados e encontrou neles mais de 4 mil vídeos falsos de pessoas famosas, dentre elas atrizes, cantoras e jornalistas cujos rostos foram sobrepostos a material pornográfico usando inteligência artificial.
A pesquisa descobriu que esses cinco sites receberam 100
milhões de visualizações em três meses, inclusive de vídeos de uma apresentadora do próprio Channel 4, Cathy
Newman.
E a criação desses vídeos segue aumentando: em 2016 apenas
um vídeo de pornografia deepfake foi encontrado on line; nos três primeiros
trimestres de 2023, foram carregados quase 145 mil novos vídeos desse tipo nos
40 sites mais conhecidos do ramo - mais do que em todos os anos anteriores somados.
Embora não se trate de deepfake, já é relativamente
frequente, entre pessoas comuns, a prática de “pornografia de vingança”,
ou "revenge porn", a
divulgação não consentida de fotos ou vídeos de natureza sexual, feita por parceiros com os
quais as vítimas tenham rompido.
Como sempre acontece quando surgem novos tipos de crime
envolvendo celebridades, eles logo começam a ser praticados contra pessoas
comuns, não devendo nos surpreender se ataques usando deepfake atingirem
pessoas de nossas relações ou nossos familiares, com o objetivo de simplesmente
atacar a honra dessas pessoas ou as extorquir.
Os governos, empresas e a sociedade como um todo devem
combater seriamente esse tipo de crime, pelo impacto que o mesmo traz às suas
vítimas e famílias, lembrando que o uso de deepfake pode ir além da pornografia
e envolver campanhas políticas, atividades empresariais e outras.