Press "Enter" to skip to content

O dilema do realismo e da ética na humanização da inteligência artificial

Tornar um chatbot “humano” demais levanta uma preocupação legítima: até que ponto a naturalidade não acaba enganando o usuário?

Poucas pessoas estão parando para pensar a sério neste aspecto. E um grupo enorme de usuários se esquece completamente que uma plataforma de inteligência artificial pode alucinar, inclusive nesse compartilhamento de opiniões em um tratamento mais humanizado.

Enquanto Sam Altman pensa em engajar os usuários e aumentar a retenção no ChatGPT, o executivo aparentemente ignora os efeitos colaterais que o tratamento humanizado do seu chatbot pode gerar nos seus usuários.

 

A dependência emocional deve aumentar

A humanização das respostas cria conforto para o usuário, mas também pode gerar dependência emocional. Muitos especialistas já observam um fenômeno crescente — o uso da IA como substituto de relações sociais, especialmente entre pessoas solitárias ou ansiosas.

Agora, imagine os estragos que podem acontecer quando esse mesmo grupo de usuários carentes começarem a interagir com plataformas de inteligência artificial que são sedutoras e eróticas.

Não estou exagerando: pode ser um verdadeiro desastre para as mentes mais fracas. E, curiosamente, quanto mais convincente é o simulacro de humanidade, mais intensa se torna essa ligação entre o usuário e a tecnologia.

 

Como a OpenAI vai resolver isso?

A OpenAI, ciente disso, tem insistido em políticas de uso responsável. O sistema de “age-gating” que chegará em dezembro é um exemplo dessas iniciativas, mas não sabemos se será o suficiente para efetivamente resolver o problema.

O novo sistema da OpenAI verificará a idade dos usuários e liberará conteúdos apenas para adultos, inclusive temas eróticos, algo inédito na história do ChatGPT.

A medida gerou polêmica: seria um passo em direção à maturidade ou apenas mais uma estratégia de mercado? O que não me leva a crer que o sistema pode ser facilmente burlado por um jovem mais habilidoso (que muito provavelmente deve contornar a limitação com a ajuda da inteligência artificial – da OpenAI, quem sabe).

 

“Tratar adultos como adultos”. De que adultos estamos falando?

Para Sam Altman, trata-se de “tratar adultos como adultos”, expressão que parece simples, mas carrega camadas de significado moral e comercial.

A abertura pode, em teoria, democratizar o uso da IA e ampliar a liberdade do usuário. Por outro lado, a inclusão de conteúdos sensíveis também exige um controle ético rigoroso.

A linha entre liberdade e abuso permanece tênue, e um deslize pode causar danos significativos à credibilidade da plataforma. A tensão entre autonomia e proteção acompanha todas as tentativas de humanização tecnológica, ditando o tom dos debates que aconteceram em outros momentos.

O grande paradoxo surge quando notamos que queremos máquinas com espontaneidade, mas condenamos quando elas ultrapassam o limite do aceitável, gerando uma dicotomia difícil de se lidar em função dos pontos amplamente apresentados neste e em outros artigos de tecnologia.

A busca pela “perfeita naturalidade” é uma faca de dois gumes: quanto mais parecida conosco a IA se torna, mais nos confronta com nossos próprios defeitos. O humor ácido, os julgamentos sutis e até o sarcasmo — elementos que tornam o diálogo mais rico — podem facilmente ser lidos como “ofensa” se mal interpretados.

Pensar em uma IA “emocionalmente acessível” é pensar, também, em uma IA responsável. É aqui que o verdadeiro desafio da OpenAI aparece, pois criar humanidade sintética sem perder o controle da ética digital passa bem longe de ser uma das tarefas mais fáceis do mundo.

Pelo contrário. A montanha que a OpenAI precisa escalar é gigantesca.