O GPT-4o resultou em um belo upgrade para o ChatGPT, entregando respostas melhores para as interações dos usuários.
Dá até para se perguntar se realmente vale a pena pagar pelo ChatGPT Plus se tudo o que você faz no chatbot é criar textos para a faculdade ou criar receitas diferentes de miojo.
Mas até a OpenAI está preocupada com esse modelo de IA, e o “System Card” publicado recentemente pela empresa alerta para as implicações éticas do seu uso, com uma real preocupação do distanciamento das pessoas em relação às interações humanas.
Maior envolvimento, maiores riscos
A OpenAI classificou os riscos do GPT-4o em várias áreas, incluindo os campos de cibersegurança e criação de ameaças biológicas.
A persuasão foi identificada como uma área com risco médio, onde mentes maliciosas podem utilizar o ChatGPT para influenciar a opinião do coletivo.
Esse potencial é ainda maior agora que o GPT-4o possui uma comunicação mais natural com os humanos.
O ChatGPT pode conversar com o usuário por voz, em uma interação mais envolvente. E o problema está justamente nesse maior envolvimento da IA com o usuário.
Os testes realizados com o GPT-4o mostraram que seus textos podem ser mais persuasivos do que os produzidos por humanos em certos contextos, como discussões políticas.
Essa capacidade de criar conteúdo convincentes pode ter implicações sérias, especialmente em áreas como desinformação e manipulação de opiniões públicas.
E não é de hoje que afirmo que o ChatGPT, nas mãos erradas, pode se transformar em uma autêntica máquina de fake news.
Você pode querer conversar só com o ChatGPT
O relatório da OpenAI alerta também para o potencial de os usuários desenvolverem laços emocionais com chatbots, o que pode afetar suas interações sociais.
A qualidade da voz sintetizada do GPT-4o pode criar uma ilusão de intimidade, levando a uma dependência emocional que pode prejudicar relacionamentos humanos.
As interações com o GPT-4o podem influenciar normas sociais, como a maneira como as pessoas se comunicam entre si.
A capacidade do modelo de permitir que os usuários “tomem o microfone” durante a conversa pode ser vista como uma quebra de normas de interação humana, o que pode ter efeitos duradouros nas relações interpessoais.
É bem simples de entender essa parte: todo mundo vai querer ter o controle da retórica ou da narrativa, sem dar espaço para o contraponto ou o contraditório.
O principal temor aqui é que as pessoas só suportem conversar com alguém que não vai rebater ou contradizer seus pontos de vista ou narrativas.
Pois é basicamente isso o que as interações com o ChatGPT entregam na maior parte do tempo.
Embora o relatório da OpenAI represente um avanço na compreensão dos riscos associados ao GPT-4o, especialistas alertam que muitos outros riscos ainda precisam ser avaliados.
Estudos anteriores, como o da Google DeepMind, também abordaram questões semelhantes, sugerindo que a pesquisa sobre o impacto emocional da IA deve ser uma prioridade contínua.