Press "Enter" to skip to content

Veo 3 marca “o fim da credibilidade do vídeo”

Compartilhe

O lançamento do Veo 3 do Google é um ponto de inflexão.

Quando as primeiras deepfakes apareceram em 2018, apresentavam falhas visíveis como mãos com seis dedos, disformias diversas e alucinações que transformavam o Will Smith comendo macarrão em um alienígena.

Tudo isso mudou, de forma drástica.

Os vídeos gerados pela nova tecnologia apresentada pela gigante de Mountain View são indistinguíveis de gravações reais, e isso tem tudo para causar um verdadeiro colapso na já sensível crise de credibilidade no conteúdo audiovisual.

É claro que os resultados entregues pela inteligência artificial são incríveis. Porém, ao mesmo tempo, são assustadores.

 

O problema de todo o potencial do Veo 3

A ferramenta permite criar conteúdo audiovisual com diálogos sincronizados, efeitos realistas e física convincente. O modelo ainda adiciona conversas espontâneas que não estavam no prompt original, mas será uma questão de tempo para que esse próximo passo apareça.

O Veo 3 demonstra logo de cara uma capacidade narrativa autônoma que torna os resultados ainda mais persuasivos. O vídeo gerado pela IA adiciona contextos e elementos relevantes na cena de forma automática, indo além do texto do prompt.

O problema vai além da mera criação de conteúdo falso. A sociedade está perdendo a capacidade de distinguir um material autêntico de um conteúdo visual sintético sem recorrer a ferramentas técnicas sofisticadas.

Para o grande público, será praticamente impossível detectar os conteúdos falsos, o que aumentam de forma considerável as chances da manipulação coletiva. A partir de agora, cada vídeo enviado para a internet vai carregar, de forma implícita, a dúvida sobre a sua veracidade.

Ou seja, o Veo 3 pode se transformar em uma máquina de fake news em massa e, ao mesmo tempo, o hálibi perfeito para que alguns grupos neguem fatos reais documentados.

Qualquer pessoa ou instituição pode simplesmente alegar que um vídeo comprometedor foi gerado por inteligência artificial. A possibilidade técnica de falsificação torna-se argumento suficiente para questionar qualquer evidência visual.

A pior parte aqui é que as garantias implementadas pelo Google são seletivas e insuficientes, pois impedem a geração de conteúdo para determinados grupos específicos (como, por exemplo, figuras políticas), mas permitem a criação de vídeos sobre desastres naturais e violência urbana, protegendo apenas contra os usos mais óbvios da tecnologia.

 

Tem uma solução simples para esse problema?

Diante do apresentado, é bem difícil.

O grande problema está na capacidade do usuário comum em poder verificar os fatos de forma rápida e com maior precisão. Não existem ferramentas para isso.

E, mesmo assim, a solução não pode ser exclusivamente técnica, pois nem todos vão contar com dispositivos potentes o suficiente para realizar essa verificação com competência e precisão.

A sociedade precisa desenvolver uma alfabetização midiática que assuma a ideia de que todo e qualquer vídeo publicado na internet é falso, até que se prove o contrário. E isso precisa ser uma premissa básica do coletivo.

O Veo 3 é sim um paradoxo: é tão bom, que pode ser a força motriz de uma nova crise de credibilidade dos conteúdos em vídeo que são compartilhados pela internet.

Para nós, o desafio fundamental será aprender a viver num mundo onde o vídeo perdeu definitivamente seu status de evidência irrefutável.


Compartilhe