Por que eu vejo essa notícia com uma surpresa que beira ao zero?
Era de se imaginar que, mais cedo ou mais tarde, algumas pessoas com visões de mundo extremistas e declaradamente racistas iriam se valer do suposto anonimato digital e da inteligência artificial para propagar seus preconceitos.
Logo, saber que estão utilizando o Veo 3, plataforma de IA que cria vídeos com voz do Google, para criar vídeos racistas é algo que não me surpreende.
O que realmente causa surpresa é que os envolvidos indiretos na propagação desses preconceitos não se manifestaram sobre o assunto até agora, muito menos tomaram providências para coibir a prática.
Mas… parando para pensar com racionalidade… a inação também não gera surpresas neste caso.
O que está acontecendo?
Um novo alerta foi emitido sobre o uso indevido de inteligência artificial para propagar conteúdo racista nas redes sociais. A diferença neste caso é o foco objetivo em uma das plataformas mais populares.
Segundo o grupo de vigilância da mídia Media Matters, o TikTok está repleto de vídeos gerados pela ferramenta Google Veo 3 que contêm estereótipos racistas, especialmente direcionados a pessoas negras, imigrantes e judeus.
Um dos clipes identificados chegou a atingir 14,2 milhões de visualizações, o que indica também que não apenas temos muitas pessoas preconceituosas no mundo, mas também que o algoritmo impulsiona com maior frequência esses discursos preconceituosos.
Os vídeos identificados, geralmente com duração de até oito segundos — o tempo máximo suportado pelo Veo 3 — contêm a marca d’água da ferramenta e são acompanhados de hashtags ou nomes de usuário que remetem à IA do Google.
Apesar das diretrizes do Google e do TikTok proibirem expressamente conteúdo de ódio, as salvaguardas se mostraram ineficazes. Mesmo porque aparentemente não existe um sistema de moderação prévio ou classificação dos conteúdos nas duas plataformas.
É engraçado… a mesma inteligência artificial que permite a criação dessas aberrações não é eficiente o suficiente para barrar esses mesmos conteúdos, tanto no momento da criação (e isso pode ser feito na deteção do contexto do prompt ou palavras utilizadas) quanto na publicação em si (algo que o TikTok falha miseravelmente).
As proteções do Veo 3 foram facilmente contornadas, muitas vezes por meio de prompts ambíguos que passam despercebidos pelos filtros automáticos da IA. E essa mecânica de retórica pode ser aplicada aos mais diferentes contextos.
É relativamente simples criar vídeos sexualmente sugestivos no Veo 2 e no Veo 3. Basta o prompt ser escrito de forma “adequada”, e a plataforma entrega os resultados solicitados, sem maiores dificuldades.
Tudo o que estamos falando neste artigo não é uma novidade. Quem trabalha com inteligência artificial todos os dias. Mas tais detalhes aparentemente são ignorados pelas plataformas, permitindo que crimes contra determinados grupos sejam disseminados nas redes sociais, reforçando preconceitos diversos.
Plataformas não conseguem (ou não querem) combater o problema
A situação é agravada pela incapacidade das plataformas em revisar todo o conteúdo que recebem, uma vez que várias dessas empresas simplesmente afrouxaram as ferramentas de moderação de conteúdo.
Um porta-voz do TikTok informou que várias das contas denunciadas já haviam sido banidas antes da publicação do relatório, mas reconheceu que os vídeos continuaram circulando por tempo suficiente para causar impacto.
E isso é de completa responsabilidade dessas mesmas plataformas. Bom, pelo menos esse é o entendimento jurídico brasileiro, quando responsabiliza as redes sociais pelos conteúdos publicados pelos seus usuários que podem infringir o que diz a lei sobre discursos criminosos e extremos, incluindo o racismo.
A presença de conteúdo semelhante foi detectada também no Instagram, YouTube e X (antigo Twitter), o que indica um problema sistêmico na moderação de conteúdo digital.
Não só um problema das plataformas, que não ineficientes ou permissivas na disseminação de conteúdos racistas, mas também de uma sociedade que, infelizmente, abraça o racismo de forma contundente e inescrupulosa.
O receio de especialistas é que a futura integração do Veo 3 ao YouTube Shorts torne ainda mais difícil combater a propagação de vídeos de ódio em larga escala, já que os usuários poderão produzir o material de forma direta, na plataforma de publicação dos vídeos.
O Google não comentou oficialmente o caso até o momento. E neste caso, quando mais tempo o silêncio perdurar, maior pode ser a cumplicidade da empresa em relação aos crimes cometidos pelos seus usuários.
Alguma coisa precisa ser feita sobre o assunto
Todo esse cenário reascende o debate sobre a eficácia das políticas de segurança das empresas de tecnologia e sobre a responsabilidade no uso de ferramentas de IA generativa para evitar danos sociais graves.
E a única conclusão inicial que podemos tomar de tudo isso é que as big techs e plataformas de redes sociais estão falhando miseravelmente neste combate. Isso é, quando realmente querem combater tais discursos.
Não é de hoje que muitos especialistas afirmam que estamos criando plataformas de inteligência artificial iminentemente preconceituosas e racistas, pois são sistemas treinados por seres humanos que contam com visões extremistas.
Sem uma regulação clara sobre o assunto, não há como escapar de um futuro em que os chatbots vão reforçar estereótipos, o que seria péssimo para a sociedade como um todo a médio e longo prazos.