Compartilhe

Vídeos manipulados usando ferramentas de inteligência artificial para mostrar algo que não é real. Isso se chama ‘deepfakes’. A tendência que começou criando vídeos pornográficos falsos, onde você coloca o rosto de atrizes famosas nas atrizes pornôs, com o tempo saltou para várias áreas, desde simples entretenimento para coisas mais sérias e preocupantes, como a manipulação política.

Apesar das tentativas de banir tais vídeos com sub-edições fechadas, proibições em redes sociais e sites pornográficos e até processos de algumas atrizes afetadas, as ‘deepfakes’ são uma realidade e seus efeitos podem ser desastrosos, já que eles dão força para as fake news, e são perfeitas para intervir em assuntos políticos. Hoje, temos uma nova amostra de suas capacidades e, como veremos abaixo, é algo realmente impressionante e aterrorizante.

 

 

Não… Jennifer Buscemi não existe, mesmo que pareça real

O vídeo a seguir foi criado pelo usuário do Reddit conhecido como VillainGuy, que publicou o conteúdo no início deste ano. O vídeo mostra o ator Steve Buscemi no corpo da atriz Jennifer Lawrence durante uma entrevista no Globo de Ouro de 2016. O que é impressionante é o nível de sincronia entre os dois atores, chegando a um ponto podemos até pensar que é real se não soubéssemos que estamos vendo algo fisicamente impossível.

De acordo com as informações, VillainGuy teria criado o vídeo com a ajuda da ferramenta gratuita ‘faceswap’, e se dedicou a treinar inteligência artificial com conteúdo multimídia de alta resolução de Buscemi. Após várias horas de codificação e renderização em um computador com GPU e processador de ponta, nasceu “Jennifer Lawrence-Buscemi”.

O vídeo explodiu nas redes sociais depois de algumas acusações de legisladores dos EUA, que alertaram sobre o perigo das ‘deepfakes’, agora que as eleições estão se aproximando em 2020. De fato, há relatos de que o Departamento de Defesa Os Estados Unidos já estão trabalhando com pesquisadores para encontrar maneiras de detectar quando um vídeo é falso ou foi manipulado com ferramentas como “faceswap”.

 

 

Hoje em dia, um grupo de pesquisadores já desenvolveu uma ferramenta que detecta quando é um vídeo é um deepfake, baseado na contagem, frequência e ritmo dos flashes que a pessoa no vídeo possui, e esta foi a técnica mais eficiente desenvolvida até agora, com 95% de eficácia.

Outra questão que diz respeito a essa tecnologia, além de vídeos pornográficos e notícias falsas, é que ferramentas de chantagem são possíveis para atingir pessoas inocentes ou que não têm recursos para impedir a divulgação de vídeos que podem danificar sua imagem para se tornar possíveis suspeitos de um crime.

Políticos e celebridades têm a possibilidade de contratar uma equipe de advogados que se encarrega de casos de difamação por meio de deepfakes, mas um cidadão comum não. Portanto, nesse momento, este é o grupo mais vulnerável pelas ações dessa tecnologia. Esta é uma forma terrível de prejudicar pessoas inocentes através de vídeos falsos.

 

 


Compartilhe