Flash Sale! to get a free eCookbook with our top 25 recipes.

Novo método detecta deepfakes com quase 100% de precisão


Pesquisadores da Universidade da Califórnia em Riverside (UCR), nos EUA, desenvolveram um novo método capaz de identificar vídeos manipulados com até 99% de precisão. Além de sequências adulteradas por deepfake, o sistema também consegue detectar alterações em expressões faciais.

Segundo os cientistas, essa abordagem permite o desenvolvimento de novas ferramentas automatizadas que podem reconhecer quando um vídeo foi falsificado para transmitir uma informação errada, ou foi usado por pessoas mal-intencionadas para divulgar uma propaganda enganosa.

“Atualmente, existem métodos que podem detectar com precisão razoável quando os rostos foram trocados. Mas identificar rostos em que apenas as expressões foram alteradas é mais difícil e, até o momento, não existe nenhuma técnica confiável”, explica o professor de engenharia da computação Amit Roy-Chowdhury, coautor do estudo.

Expressões manipuladas

O novo método criado pelos pesquisadores possui uma estrutura chamada Detecção de Manipulação de Expressões (EMD, na sigla em inglês). Esse sistema computacional consegue identificar e localizar regiões específicas dentro de uma imagem que foram digitalmente alteradas.

Esquema de funcionamento do sistema de detecção de manipulação de expressões (EMD) (Imagem: Reprodução/UCR)

Para fazer isso, a técnica divide essa tarefa em dois componentes utilizando uma rede neural profunda. A primeira ramificação identifica expressões faciais e alimenta o sistema com informações sobre áreas como olhos, boca e testa. Já o segundo módulo — chamado codificador-decodificador — é o responsável pela detecção e localização das manipulações.

“O que torna a área de pesquisa de deepfakes mais desafiadora é a competição entre a criação, detecção e prevenção dos sistemas de manipulação. Com os avanços dos programas de edição de vídeo, essa disputa ficará cada vez mais acirrada no futuro”, acrescenta Roy-Chowdhury.

Aprendizagem multitarefa

Os conjuntos de dados de referência para manipulação facial são baseados na troca de expressões e da identidade. Enquanto um transfere as expressões de um vídeo de origem sem alterar a identidade da pessoa, o outro modifica a aparência completa do indivíduo, dificultando seu reconhecimento a olho nu.

Exemplo de como o sistema detecta adulterações nas expressões faciais (Imagem: Reprodução/UCR)

Esse sistema de identificação, que usa aprendizagem de máquina para reconhecer alterações, mostrou até agora um desempenho muito superior tanto na detecção de manipulações de expressões faciais, quanto nos vídeos em que a identidade de uma pessoa foi totalmente adulterada.

“A aprendizagem multitarefa vai alavancar a criação de sistemas de reconhecimento facial, beneficiando o aprimoramento de técnicas convencionais para detecção de manipulações, independentemente da qualidade ou da quantidade de dados usados para alterar uma imagem”, encerra o doutorando em ciência da computação Ghazal Mazaheri, autor principal do estudo.

Fonte: University of California – Riverside



Veja mais