FSGAN: agora é possível criar deepfakes em tempo real e de forma bem simples | TargetHD.net
TargetHD.net | Notícias, Dicas e Reviews de Tecnologia FSGAN: agora é possível criar deepfakes em tempo real e de forma bem simples | TargetHD.net Press "Enter" to skip to content
Wetten.com Brasil Apostas
Você está em | Home | Tecnologia | FSGAN: agora é possível criar deepfakes em tempo real e de forma bem simples

FSGAN: agora é possível criar deepfakes em tempo real e de forma bem simples

Compartilhe

As deepfakes foram uma das pautas mais comentadas de 2019, e elas continuam a evoluir a olhos vistos, com uma base de usuários cada vez maior e resultados mais realistas. Mas o feito do FSGAN dá um passo enorme nesse sentido.

O novo software (cujo nome significa Face Swapping GAN) nos permite recorrer a duas técnicas diferentes de criação de deepfakes em vídeo: o Face Swapping, onde sobrepomos o rosto de uma pessoa sobre o corpo de outra, e o Face Reenactment, que recria as feições de uma pessoa aplicando os movimentos de outra (incluindo os movimentos dos lábios).

 

 

Falsificações mais rápidas e mais fáceis de serem criadas

 

 

O mais relevante do FSGAN é fazer tudo isso sem precisar treinar o algoritmo por horas (ou dias), recorrendo a um caro hardware especializado que acelera o processo de aprendizagem da aparência e movimento de um rosto humano.

Não só a economia de tempo, mas sim a simplicidade para gerar deepfakes assustam: desse modo, qualquer pessoa com conhecimentos básicos da tecnologia pode produzir novas falsificações, já que todo o trabalho pesado está completamente automatizado.

O FSGAN foi produzido por cientistas da Universidade Bar-Ilan de Israel. O software mapeia o rosto ou as expressões faciais de uma pessoa ‘fonte’ (extraída de um vídeo, mesmo de baixa qualidade, a partir de um simples fotograma) para aplicar em uma segunda pessoa ‘destino’.

O vídeo de demonstração mostra resultados próximos da perfeição, mostrando processos anteriores mais complexos, e alcançando resultados muito interessantes como lidar com microfones sobrepostos ao rosto do ‘destino’, ou conjugar rostos e corpos com diferentes pigmentações de pele.

Por outro lado, o FSGAN falha (e muito) em outras situações, como na hora de aplicar o Face Reenactment a partir de uma foto individual, mostrando fundos de imagem tremidas que permitem detectar que aquele vídeo é um deepfake.

 

 

FSGAN não vai seguir os passos do GPT-2

 

 

Seus criadores anunciaram que vão compartilhar o código do FSFAN em breve, e entendem que o mesmo não é perigoso. Afirmam que impedir o compartilhamento do código não vai impedir o desenvolvimento de tecnologia similar, mas sim apenas ocultaria do público e dos responsáveis políticos as repercussões do mau uso desse tipo de algoritmos, impedindo o desenvolvimento de medidas e soluções para combater os excessos.

 

 

Via Futurity


Compartilhe