
Muitos querem um ChatGPT mais erótico, mas morrem de medo da possibilidade de uma inteligência artificial se transformar em um tarado ou uma sedutora. Os efeitos colaterais estimados já despertam gatilhos emocionais em alguns usuários.
Não podemos negar que existe sim um processo de evolução das plataformas de inteligência artificial para uma abordagem mais humanizada e personalizada. O problema é que muitos estão com medo de que a tecnologia “perca a mão” nesse processo de ser muito parecido conosco na tomada de decisões e compartilhamento de pensamentos.
Sei que não vamos achar uma solução, mas quem sabe não iniciamos uma conversa mais construtiva a partir desse tópico.
Como será o amanhã?
Olhar para o futuro do ChatGPT é olhar para a direção que toda a IA está tomando. As próximas gerações de modelos prometem não apenas respostas melhores, mas também experiências mais imersivas, capazes de adaptar tom, contexto e até humor em tempo real.
A evolução sugere que a linha entre um diálogo humano e um digital ficará cada vez mais borrada. E, quando isso acontecer, talvez nem façamos mais questão de distingui-las, pois o comportamento das plataformas vai ditar o ritmo dessas interações.
A OpenAI, como líder desse movimento, demonstra entender que o carisma digital é um ativo tão valioso quanto a precisão das respostas. Pois é justamente essa característica que vai manter os usuários por mais tempo utilizando a sua plataforma.
O novo ChatGPT, prometido para as próximas semanas, deve retomar a leveza do modelo 4, mas com camadas adicionais de segurança e controle. Isso inclui opções de “modo de personalidade” que poderão ser ativadas ou desativadas conforme o perfil do usuário.
É um retorno às origens, mas com maturidade de gestão e um olhar mais pragmático sobre o impacto social da IA. Ainda assim, a promessa de humanização deve ser vista com cautela.
A mesma cautela que você precisa ter em relação ao desconhecido do outro lado da rua, a vizinha fofoqueira ou aquela pessoa que oferece vantagens que são, no mínimo, questionáveis (porque alguém é prejudicado no processo de favorecimento).
Use com moderação
Por mais que a conversa com uma plataforma de inteligência artificial humanizada soe natural, ela continua sendo resultante de cálculos, não de consciência. A diferença é invisível, mas existente e relevante nas interações.
Uma IA mais emocional pode ser inspiradora, mas também perigosa se não houver discernimento. O grande aprendizado é que não precisamos de máquinas “sentindo” — precisamos de máquinas que compreendam nossas emoções sem fingir que as sentem.
Não podemos nos esquecer que o ChatGPT AINDA alucina nas respostas. E pode fazer o mesmo com as respostas mais empáticas, já que ela pode ser configurada apenas e tão somente para dizer o que você quer ouvir.
Nem que para isso o chatbot tenha que mentir para você.
Ao prometer ser mais humano, o ChatGPT desperta debates que ultrapassam a tecnologia. Ele questiona o próprio conceito de autenticidade em um mundo cada vez mais mediado por algoritmos.
Seria a naturalidade apenas mais uma simulação bem-feita?
Ou estamos presenciando o início de uma nova forma de comunicação híbrida, metade humana, metade sintética?
O tempo dirá.
Por enquanto, a promessa de Altman soa quase poética: devolver a alma que a IA havia perdido.
Pode ser marketing, pode ser um avanço real — mas, de uma forma ou de outra, é um lembrete de que o futuro da inteligência artificial não está em pensar como nós, e sim em aprender a nos compreender de forma mais íntima e sutil.
Por enquanto, mantenho o meu pé atrás. Não compro um carro usado do Sam Altman. Fato.
