Press "Enter" to skip to content

Beijos e abraços criados por IA: assustador!

Compartilhe

Uma nova geração de aplicativos de inteligência artificial está transformando selfies comuns em vídeos íntimos e românticos, prometendo experiências que até recentemente pareciam impossíveis.

Ferramentas como DreamVid, Boom.AI e VideoAI ganharam popularidade massiva em plataformas sociais, especialmente TikTok e Instagram, onde anúncios exploram apelos emocionais e sexuais para atrair usuários.

Os riscos dessa prática existem, são tangíveis e podem afetar a praticamente qualquer pessoa. A manipulação da imagem quando alcança esse nível de complexidade se transforma em algo simplesmente assustador, e poucas pessoas estão conversando sobre isso neste momento.

Isso pode parecer meio absurdo para aquelas pessoas que contam com a cabeça minimamente no lugar, mas está se tornando algo cada vez mais frequente, com efeitos devastadores para aquelas pessoas que são afetadas por tal prática.

 

O problema desses apps

Estamos falando de aplicativos que funcionam com tecnologia simplificada: bastam uma ou duas fotografias faciais para que algoritmos de IA produzam vídeos de qualidade crescente, mostrando o usuário em interações íntimas com outras pessoas, sejam elas reais ou fictícias.

O DreamVid, disponível nas lojas de aplicativos Apple e Google, se posiciona como “aplicativo definitivo para transformar fotos em vídeos impressionantes com tecnologia de IA”, permitindo a criação de vídeos longos e curtos com extensões customizáveis.

A facilidade de acesso e as versões gratuitas ou com assinaturas baratas tornaram essas ferramentas amplamente disponíveis, muitas vezes sem verificação adequada de idade dos usuários.

A aparente inocência destes aplicativos esconde questões profundas relacionadas ao uso indevido de imagens pessoais e à produção de conteúdo sugestivo sem consentimento.

A maioria dos vídeos gerados apresenta representações hipersexualizadas, com personagens femininas idealizadas seguindo padrões estéticos específicos: olhos grandes, pele clara e roupas justas.

Observa-se também uma recorrente estetização de padrões asiáticos, indicando vieses algorítmicos derivados de bancos de dados de treinamento não diversificados.

Segundo análises da MIT Technology Review, o uso indiscriminado de imagens para treinar modelos de IA pode reforçar estereótipos de gênero e raça, criando representações distorcidas do corpo humano.

Mesmo quando os vídeos não contêm nudez explícita, mantêm um tom consistente de erotização, tornando-os particularmente problemáticos para menores de idade. A ausência de filtros robustos, a falta de validação de identidade e a natureza viral do conteúdo dificultam o controle de seu alcance e impacto.

 

Um vácuo legal

Uma das principais preocupações levantadas por especialistas jurídicos e defensores da privacidade digital é o uso não autorizado de rostos de terceiros para gerar vídeos com conotações românticas ou eróticas.

Casos envolvendo celebridades, influenciadores ou colegas sendo inseridos em cenários íntimos sem permissão tornaram-se comuns, configurando um tipo de “deepfake afetivo” que ainda escapa de regulamentações específicas em muitas jurisdições.

No Brasil, a Câmara dos Deputados aprovou em fevereiro de 2025 um projeto de lei que criminaliza a manipulação digital e divulgação de nudez ou ato sexual falso gerados por inteligência artificial, mas o texto ainda aguarda votação no Senado. O crescimento de deepfakes no país entre 2022 e 2023 foi de surpreendentes 830%, demonstrando a urgência da questão.

Segundo reportagens da Wired, marcos legais sobre inteligência artificial, como o AI Act da União Europeia, ainda não oferecem diretrizes claras sobre o uso não consensual de imagens para fins emocionais ou simbólicos.

Isso cria um vácuo jurídico que favorece a exploração comercial de vídeos falsos com aparência de autenticidade. Enquanto grandes empresas como OpenAI e Google impuseram controles rígidos em seus sistemas de geração de vídeo (Sora e Veo), pequenos desenvolvedores que alimentam essa nova onda de aplicativos parecem ignorar essas práticas de segurança.

O Brasil avança com marcos regulatórios específicos, mas a rápida evolução e complexidade da tecnologia exigem regulamentação adaptável. Cresce a pressão por regulações mais rígidas e transparência no desenvolvimento dessas ferramentas.

Defensores da regulamentação propõem a exigência de marca d’água obrigatória em vídeos gerados por IA, além de mecanismos de denúncia mais ágeis em plataformas sociais.

O país tem trabalhado na criação de estratégias de regulamentação que abordem especificamente as preocupações levantadas pelas deepfakes, incluindo colaboração entre governo, empresas de tecnologia e especialistas em segurança cibernética.

No entanto, o debate ainda engatinha, e os aplicativos continuam a se multiplicar com poucos obstáculos à sua disseminação.

 

Usos terapêuticos e dilemas psicológicos

Nem todos os usos desses aplicativos são abusivos. Alguns usuários relataram ter utilizado as ferramentas para recriar memórias com pessoas falecidas ou simular reencontros impossíveis, levantando discussões importantes sobre o papel da IA como consolo para traumas emocionais.

Há quem veja nesses vídeos uma forma de terapia alternativa, enquanto outros argumentam que tais simulações podem gerar confusão emocional ou retardar processos de luto saudável.

Especialistas em psicologia digital alertam que, embora a tecnologia tenha potencial para oferecer conforto, ela também pode reforçar idealizações irrealistas, especialmente em pessoas emocionalmente vulneráveis.

Surgem dilemas éticos sobre a fidelidade das representações e o risco de apego a situações que nunca aconteceram de fato.

 

Normalização dos deepfakes e seus impactos sociais

A popularização desses aplicativos indica um novo estágio na cultura dos deepfakes: a migração do escândalo e da denúncia para a normalização e o consumo cotidiano.

Em 2025, essa tecnologia está disponível em aplicativos gratuitos, acessível a qualquer usuário comum, criando uma “era de risco epistêmico” onde até evidências aparentemente objetivas se tornam suspeitas.

Se antes a tecnologia era vista como algo perigoso e distante, agora se apresenta como um passatempo divertido — uma brincadeira inofensiva com potencial de viralização.

Segundo analistas do TechCrunch, esse processo de normalização pode minar a percepção pública sobre os riscos reais do uso não autorizado de imagens e da manipulação emocional através da IA.

A facilidade de acesso e a interface amigável desses aplicativos tornam-nos especialmente atrativos para públicos jovens, que podem não compreender completamente as implicações éticas e legais de suas criações.

Muitos desses apps estão hospedados em mercados com baixa fiscalização ou políticas de moderação frouxas, como versões regionais da Play Store ou lojas alternativas para Android.

A questão dos deepfakes românticos exemplifica um desafio maior da era digital: como equilibrar inovação tecnológica, liberdade de expressão e proteção individual em um ambiente onde as fronteiras entre real e artificial se tornam cada vez mais difusas.

A resposta provavelmente exigirá uma combinação de regulamentação legal, autorregulação da indústria e educação digital da população.

 

Via The Verge


Compartilhe