TargetHD.net | Notícias, Dicas e Reviews de Tecnologia As deepfakes de áudio saíram do controle | TargetHD.net Press "Enter" to skip to content
Você está em | Home | Tecnologia | As deepfakes de áudio saíram do controle

As deepfakes de áudio saíram do controle

Compartilhe

Você certamente já ouviu falar das deepfakes em algumas oportunidades. Normalmente elas estão associadas a um vídeo que digitalmente suplanta a cara de uma pessoa famosa para fazer com que as pessoas acreditem que ele está dizendo algo fora do comum ou completamente desconectado do contexto de sua realidade.

Por exemplo, quando fizeram Mark Zuckerberg declarar duras críticas contra o Facebook, ou quando a tecnologia foi utilizada para colocar os rostos de atrizes famosas em atrizes de vídeos pornográficos.

Mas as deepfakes vão além dos vídeos destinados ao prazer fetichista ou as críticas políticas e empresariais. A tecnologia também é utilizada para cometer crimes, e já é utilizada em forma de som. Dessa forma, as chamadas telefônicas seriam vias para suplantar a voz de algum executivo ou diretor de uma grande empresa para cometer golpes em diferentes corporações.

Tal golpe foi confirmado pela empresa de segurança Symantec. Nos últimos meses, a empresa teve que atender três casos onde foi utilizada a tecnologia de deepfake para enganar empresas. Basicamente, o atacante utiliza uma inteligência artificial que estuda uma voz por meio de gravações para imitá-la.

 

 

Estamos desprotegidos

 

Esse é um sistema dinâmico. Por trás da chamada telefônica, existe alguma pessoa que pode digitar os diálogos para que a inteligência artificial diga as frases, interagindo com a pessoa do outro lado da linha. Logo, pelo menos de cara, é difícil em um primeiro momento detectar se a chamada é real ou um fake.

Por outro lado, nesse exato momento, já está em desenvolvimento o software necessário para detectar as deepfakes. Porém, empresas como Symantec ou ZeroFOX não confirmaram a sua disponibilidade.

Caso o software de detecção de deepfakes esteja pronto em um curto espaço de tempo, é bem provável que ele custe bem caro. Sendo assim, as ferramentas atuais para a defasa contra a tecnologia de deepfakes são realmente muito limitadas, e todo o cuidado é pouco (assim como uma boa dose de bom senso).


Compartilhe