Press "Enter" to skip to content

A era da personalização emocional na IA

Compartilhe

A nova fase do ChatGPT vem com o conceito de “personalidade configurável”, permitindo que cada usuário escolha o tom com que a IA interage: divertida, sarcástica, analítica ou neutra. E isso tem tudo para ser algo incrível (pela personalização) ou um grande desastre (também pela personalização).

Essa liberdade promete tornar o contato mais natural, mas também questiona até que ponto estamos dispostos a projetar emoções em algoritmos. Imagine selecionar o humor ideal para o dia — como trocar o filtro de uma rede social, mas aplicado à comunicação.

Não dá para dizer que essa é uma reinvenção da roda, pois outras plataformas de inteligência artificial já podem ser personalizadas. Ou seja, a OpenAI está correndo atrás do prejuízo que o ChatGPT tem neste aspecto.

Mas… a que custo?

 

Uma mudança de paradigma

Em vez de um assistente universal, teremos versões moldadas às preferências subjetivas de cada pessoa, entregando um nível de personalização que sempre foi demandado para essa e outras plataformas de inteligência artificial.

Isso pode ser incrivelmente positivo, pois reduz a sensação de conversa robótica e aproxima a interação da linguagem cotidiana. Porém, ao mesmo tempo, reforça o risco de criar uma bolha emocional, na qual o usuário só escuta aquilo que quer ouvir.

Tecnologicamente falando, a empatia torna-se uma ferramenta de retenção.

O ser humano sempre foi propenso a manter conversas com aqueles que concordam com suas perspectivas e visões de mundo, pois nosso cérebro tem preguiça de raciocinar em cima do contraditório, e sempre vai buscar as respostas mais rápidas para qualquer coisa.

Agora, imagine uma inteligência artificial que concorda com você a ponto de desenvolver aquele sentimento de dependência emocional, o que pode eventualmente resultar em redução de capacidade intelectual, inclusive para questionar o mundo ao seu redor.

Entendeu agora como isso pode ser perigoso nas mãos erradas?

 

Entregando amor em troca de engajamento

Empresas como a OpenAI não ignoram o poder afetivo da IA. A capacidade de gerar respostas empáticas e ajustadas emocionalmente é o que mantém usuários voltando diariamente para várias dessas plataformas.

O problema aqui está no fato de que personalizar tons e estilos também aumenta a responsabilidade da empresa em evitar a manipulação emocional — algo que já vem preocupando especialistas em psicologia digital.

Afinal, quando uma IA “entende” e “reage” como um amigo, o vínculo deixa de ser puramente funcional.

E eu estou duvidando que Sam Altman está se preocupando em algum momento com os efeitos colaterais que esa humanização do ChatGPT pode despertar nos usuários.

O retorno da personalidade também serve como resposta direta às críticas de que as atualizações anteriores haviam matado a espontaneidade do ChatGPT. Agora, com o retorno do sarcasmo e da ousadia textual, a OpenAI tenta recuperar o equilíbrio entre segurança e empatia.

Há um reconhecimento de que o público quer IAs com mais emoção, mas sem ultrapassar os limites da responsabilidade. Um equilíbrio que ainda é difícil de ser encontrado neste primeiro momento.

Quem sabe como tempo (e muito treinamento das plataformas).

Portanto, personalizar o ChatGPT é mais do que ajustar preferências. É, de forma necessária, reinventar a forma como nos conectamos emocionalmente com a inteligência artificial.

O sucesso dessa nova fase dependerá não apenas do código, mas da sensibilidade com que cada nuance humana será simulada.

 


Compartilhe