Compartilhe

As fake news e deepfakes são grandes preocupações da era digital. As fake news foram relevantes para as eleições presidenciais nos Estados Unidos em 2016 e no Brasil em 2018, o que resultou no banimento de páginas do Facebook que propagavam notícias falsas, e uma CPMI sobre as atividades criminosas nesse mesmo sentido em nosso país.

Mas as deepfakes (combinação de Deep Learning e Fake) são outras preocupações reais. Basicamente se trata de uma forma de inteligência artificial que permite a qualquer usuário editar vídeos e áudios falsos de pessoas que parecem reais, apelando para redes generativas antagônicas (ou RGAs), uma espécie de algoritmo que podem criar novos tipos de dados a partir de dados que já existem.

Traduzindo: as deepfakes são mais uma forma de manipulação digital. Mas… como podemos detectá-las? E o que as instituições e empresas provadas estão fazendo para prevenir as suas consequências?

Nesse post, vamos falar sobre esse assunto em detalhes.

 

 

Por que as deepfakes são tão perigosas?

 

 

Com uma deepfake, você pode substituir com facilidade o rosto de uma pessoa pelo de outra, em uma espécie de máscara digital, para que você acredite que aquela pessoa disse coisas que, na verdade, nunca disse. Tal técnica possui várias implicações significativas para determinar a legitimidade da informação que circula na internet.

Um vídeo de deepfake possui potencial para destruir a reputação de uma pessoa ou influenciar a opinião pública com desinformação. É preciso se antecipar a esse mal que avança de forma mais rápida que o desejado, e com um enorme sucesso em enganar pessoas.

O app DeepNude é um claro exemplo do que eu estou falando. Ele permitia o envio da foto de uma pessoa com roupa para criar uma nova, da mesma pessoa, porém, desnuda. O site já foi fechado, mas mostra a facilidade de uso desse tipo de ferramenta, já que o algoritmo faz todo o trabalho sujo.

Esta é apenas a ponta do iceberg da capacidade de manipulação desse tipo de tecnologia. Imagine as consequências futuras para figuras políticas durante o processo de uma eleição, e você logo vai entender que a maldade humana não tem limites.

 

 

Como combater as deepfakes?

 

 

O Google anunciou suas medidas para combater as deepfakes, no melhor sistema fogo contra fogo. A empresa confirmou o lançamento de uma base de dados com 3.000 vídeos manipulados com inteligência artificial, criados especificamente para ajudar a refinar as ferramentas de detecção de vídeos falsos.

Foram contratados adores reais para gravar os seus rostos, que foram utilizados como ponto de referência para determinar se um vídeo foi alterado ou não. Através de métodos de geração de deepfakes disponíveis, foram criados milhares de vídeos falsos a partir dessas gravações.

Os vídeos resultantes, reais e falsos, são enviados para o GitHub para que pesquisadores compreendam o que o sistema está produzindo. A base de dados é totalmente acessível com as respectivas permissões prévias.

O Facebook também planeja criar a sua base de dados de deepfakes até o final de 2019. O principal problema aqui está no fato da indústria não contar com um sistema padronizado para detectá-los. Por isso, a rede de Mark Zuckerberg se uniu com a IA Association, Microsoft e acadêmicos de diversas universidades norte-americanas para construir o DFDC, que tem como objetivo principal detectar as deepfakes com a combinação de diferentes estudos e tecnologias.

Assim, será criada uma grande base de dados e uma classificação primária, além de receber financiamentos e doações para estimular o máximo de colaboradores. A ideia é cria ruma comunidade que ajuda a detectar e evitar os vídeos manipulados via IA.

O tema das deepfakes se tornou muito sério, e pode ter consequências pesadas. Apesar das medidas tomadas para combater a prática parecerem pouco práticas ou contraproducentes, esta pode ser a única maneira para erradicar este delito. Pode ser contraditório criar deepfakes para combater deepfakes, mas ao menos as ferramentas de detecção de vídeos falsos vão absorver mais dados que ajudam a detectar com maior facilidade esse tipo de montagem.

 


Compartilhe