Press "Enter" to skip to content

Quando a IA manipula imagens de uma guerra

O conflito bélico entre Israel e Irã está se transformando em guerra psicológica e propaganda em escala global, com a ajuda da inteligência artificial.

As plataformas de chatbot generativas se tornaram instrumentos manipulação de informações, onde as duas nações podem moldar narrativas e influenciar a opinião pública através de conteúdo sintético gerado artificialmente.

A batalha de narrativas é a nova maneira que as nações encontraram para turbinar seus conflitos, expandindo o campo de batalha para além do território físico e adentrando o espaço informacional digital.

 

Deepfakes como estratégia militar

O exército iraniano divulgou imagens de supostos caças F-35 israelenses abatidos, utilizando tecnologia de IA para criar evidências visuais de vitórias militares. A imagens apresentavam falhas técnicas evidentes, como proporções irreais entre objetos e pessoas, mas ainda assim foram amplamente compartilhadas.

Israel negou rapidamente as alegações, mas o dano informacional já havia se espalhado pelas redes sociais. Milhares de usuários compartilharam as imagens considerando-as legítimas, demonstrando a eficácia da estratégia de desinformação mesmo com conteúdo tecnicamente imperfeito.

A análise técnica das imagens revelou inconsistências óbvias, como edifícios menores que pessoas e aeronaves com proporções absurdas. Contudo, a velocidade de disseminação superou a capacidade de verificação factual, evidenciando a vulnerabilidade das redes sociais à manipulação.

 

Como as imagens foram descobertas?

O Tehran Times utilizou o Veo 3 do Google para produzir vídeos de mísseis inexistentes, esquecendo-se de remover a marca d’água da ferramenta. O descuido técnico expôs claramente a origem artificial do conteúdo, mas não impediu sua circulação massiva.

A conta “3amelyonn” se autodefiniu como “Resistência com Inteligência Artificial” e se especializou em criar conteúdo falso sobre ataques em Tel Aviv. Os vídeos foram distribuídos simultaneamente no Twitter e Telegram, maximizando o alcance da desinformação.

Esses casos demonstram tanto a sofisticação crescente das ferramentas de IA quanto a negligência operacional de seus usuários. A presença de marcas d’água serve como evidência forense, mas raramente é verificada pelo público geral antes do compartilhamento.

As empresas de IA desenvolveram sistemas de marca d’água como o SynthID do Google, mas sua eficácia é limitada pela necessidade de verificação manual. O processo de download e análise consome tempo precioso durante o qual o conteúdo falso já alcançou milhões de visualizações.

A velocidade de disseminação supera amplamente a capacidade de verificação, criando uma vantagem estrutural para a desinformação. Entre a publicação e a verificação factual, existe uma janela temporal crítica onde narrativas falsas se consolidam.

A defasagem tecnológica entre criação e detecção de conteúdo sintético representa um dos maiores desafios contemporâneos. Enquanto a geração se torna mais acessível e rápida, os mecanismos de verificação permanecem complexos e demorados.

 

Participação oficial de líderes governamentais

O líder supremo do Irã, Sayyid Ali Khamenei, publicou imagens de mísseis direcionados a Israel geradas pelo ChatGPT em suas redes sociais oficiais, o que elevou a guerra de propaganda ao mais alto nível governamental, legitimando o uso de conteúdo sintético.

O ministro da Defesa israelense também participou da guerra iconográfica, produzindo o que especialistas classificam como “lixo visual de IA” para disseminação no Facebook. Ambos os lados adotaram estratégias similares de manipulação visual para influenciar a opinião pública.

A participação direta de autoridades governamentais representa uma escalada significativa no uso militar da IA. Não se trata mais de operações clandestinas, mas de políticas oficiais de Estado utilizando tecnologia para fins propagandísticos.

Israel orientou seus cidadãos a evitarem compartilhar imagens reais de ataques para não fornecer informações estratégicas ao inimigo. Essa diretriz oficial criou um vácuo informacional que foi preenchido por conteúdo gerado artificialmente.

A estratégia dupla busca simultaneamente proteger segredos militares e manter o fluxo de propaganda favorável. A IA permite criar narrativas visuais sem expor localização, equipamentos ou táticas reais utilizadas no conflito.

Na prática, transformaram a inteligência artificial em uma ferramenta de segurança nacional, permitindo uma comunicação pública sem comprometimento operacional.

O resultado é uma camada adicional de obscuridade entre a realidade do conflito e sua percepção pública.

 

Quando a IA é utilizada para fins bélicos

Algumas empresas que desenvolvem plataformas de inteligência artificial simplesmente não se importam com o fato de que as suas respectivas tecnologias são utilizadas para fins bélicos. E esses são os primeiros resultados práticos deste descaso.

A desinformação pode ser tão perigosa quanto uma arma. Pode resultar em perdas de vidas, tanto pelo equívoco da informação em si quanto pela desinformação gerada sobre alguém ou um grande grupo de pessoas.

Aparentemente, Israel e Irã, independentemente de quem está certou ou errado no conflito, não estão preocupados com a desinformação gerada pelos conteúdos que são compartilhados pela imprensa e, de forma quase inacreditável, pelos seus líderes governamentais.

E são esses cenários extremos que exigem uma profunda reflexão sobre a real necessidade de regulamentação das plataformas de inteligência artificial e os limites do seu uso.

Parâmetros éticos são necessários para determinar o que podemos ou não fazer com as plataformas de inteligência artificial.

Caso contrário, tudo tende a sair do controle com relativa facilidade.

 

Via 404media