Press "Enter" to skip to content

Por que a “beleza guiada por IA” é um erro

Compartilhe

Como se a humanidade não tivesse problemas o suficiente, uma nova tendência tem ganhado força nas redes sociais: os usuários estão recorrendo ao ChatGPT para receber conselhos de beleza e estética. A prática viralizou no TikTok, com vídeos acumulando centenas de milhares de visualizações.

Não basta usar a inteligência artificial como terapeuta ou psicólogo. Não basta fazer do ChatGPT o seu novo relacionamento afetivo. É preciso escalar níveis para dar um uso ainda mais problemático para o chatbot.

Vamos abordar a questão, apresentando casos e justificativas para esse fenômeno, além de mostrar as falas de especialistas que estão seriamente preocupados com os efeitos emocionais que essa nova tendência pode causar.

 

Por que as pessoas estão fazendo isso

Pessoas como a australiana Ania Rucinski, de 32 anos, questionam a inteligência artificial sobre como parecer mais atraentes. A IA oferece sugestões específicas, desde cortes de cabelo até paletas de cores ideais, análises de tom de pele e recomendações de maquiagem com marcas e tons precisos.

Os usuários justificam a preferência pela IA alegando que ela oferece opiniões mais honestas e diretas, sem a crueldade típica de críticas humanas. E aqui, apesar de concordar com esse ponto, é de se questionar também o padrão de qualidade dos amigos que essas pessoas estão atraindo.

Kayla Drew, entrevistada pelo The Washington Post, afirma recorrer ao ChatGPT para todos os conselhos de beleza porque sua abordagem direta “não dói tanto” quanto críticas de pessoas próximas.

A crítica de beleza Jessica DeFino explica que os seres humanos possuem laços emocionais que afetam percepções, enquanto um bot analisa apenas dados sem influência de afeto ou personalidade.

Para quem busca respostas claras sobre aparência, isso representa uma vantagem aparente. Para todo o resto, temos mais um problema servido.

 

O que dizem os especialistas?

Os especialistas alertam que essa “neutralidade” da inteligência artificial é ilusória, pois não é baseada em uma percepção individual.

Emily Pfeiffer, analista da Forrester, destaca que a IA simplesmente reflete o que encontra na internet, muito do qual foi projetado para fazer pessoas se sentirem mal consigo mesmas e comprarem mais produtos.

Afinal de contas, parte dos dados do ChatGPT são baseados nas interações e comentários de pessoas que também julgam pela aparência e manifestam opiniões sobre o estilo de outras pessoas de forma tóxica e agressiva.

Pesquisadores como Alex Hanna e Emily Bender alertam que treinar modelos com conteúdo de fóruns que classificam atratividade significa “automatizar o olhar masculino”. O chatbot pode perpetuar padrões de beleza sexistas em vez de oferecer avaliações justas ou empáticas.

A inteligência artificial tende a reduzir beleza a padrões repetidos e previsíveis, com maior volume de interações e feedbacks positivos do coletivo com maior presença. Aqui, se encaixam: pele impecável, corpos esguios e características eurocêntricas.

Esses padrões dominantes não nascem do indivíduo, mas do mercado, transformando o desejo de se sentir melhor em uma operação matemática orientada para otimização.

Outros estudos mostram que sistemas como o ChatGPT reproduzem preconceitos sistêmicos de gênero e raça. Isso já foi discutido em outras oportunidades, com resultados práticos palpáveis.

Se a segregação acontece em sistemas de reconhecimento biométrico (e isso já foi mais do que constatado), o que não leva a crer que o mesmo vai acontecer para o que a IA vai considerar como “padrão de beleza”?

Muitos modelos são treinados com dados de fóruns onde a aparência é objetificada, incluindo espaços da manosfera e ambientes incel, criando um espelho distorcido que reflete preconceitos de uma cultura digital marcada pelo desejo masculino e lógica competitiva.

Ou seja, se você realmente procurou o ChatGPT acreditando que ele vai dar uma opinião neutra sobre a sua estética, lamento em dizer, mas é mais fácil procurar amigos melhores para ter um feedback mais empático.

A IA só vai deixar você ainda pior neste caso.


Compartilhe