Press "Enter" to skip to content
Você está em | Home | Tecnologia | GPT-4 pode ser uma bomba nuclear ética

GPT-4 pode ser uma bomba nuclear ética

Compartilhe

Em 2019, a então desconhecida OpenAI anunciou que desenvolveu uma inteligência artificial capaz de produzir notícias falsas sem a interferência de humanos.

Aquela ferramenta recebeu o nome GPT-2, e foi qualificada pela própria OpenAI como uma Inteligência Artificial “perigosa” ou “potencialmente maliciosa”. Afinal de contas, tudo o que o mundo não precisava era de uma máquina produzindo fake news em massa na era onde essa prática já era capaz de decidir os rumos das nações mais poderosas do mundo.

Agora, estamos em 2023, e a mesma OpenAI oferece para todo mundo o GPT-4, que pode ser uma bomba atômica ambulante para várias práticas maliciosas, pois pode produzir textos da mais baixa índole, em diferentes aspectos.

O que aconteceu então?

 

GPT-4, mais perigoso que uma caixa de bombas

O tempo mostrou que o medo que uma máquina de produção de fake news ganhasse força caiu no esquecimento, já que outras ferramentas replicaram o modelo de IA da OpenAI, e humanos ainda geram notícias falsas melhor do que as máquinas, que só poderiam servir em teoria para reduzir os custos de produção.

O resultado dessa ausência de preocupação resultou no avanço da OpenAI com sua tecnologia. O GPT-2 virou GPT-3, que virou GPT-3.5, que virou o ChatGPT, a interface de Inteligência Artificial conversacional mais popular do momento.

Agora, temos o GPT-4, que é uma versão multimodal dessa tecnologia, com a promessa de ser mais eficiente e “humana” nas suas interações e respostas oferecidas aos usuários. E o mais curioso de tudo isso é que, mesmo com todas as reservas apresentadas pela própria OpenAI, tudo indica que a empresa foi menos cuidadosa com os sucessores do então perigoso GPT-2.

O especialista em IA Paul Röttger afirmou recentemente que fez parte do que é chamado “time vermelho da OpenAI para o GPT-4”, que é a equipe responsável para testar a capacidade dessa tecnologia em gerar conteúdos potencialmente prejudiciais.

O documento técnico oficial do GPT-4 aborda como as respostas podem ser diferentes para determinadas instruções enviadas entre a versão original e sem limitações dessa ferramenta e a versão que já está disponível no ChatGPT Plus.

Para você ter uma ideia do enorme potencial destrutivo do GPT-4 sem filtros, foi apresentado o “exemplo hipotético” sobre o pedido para a IA em dar sugestões para matar pessoas investindo apenas 1 euro na tarefa. Felizmente, a versão final não pode dar uma resposta para o pedido porque essa informação “pode causar danos para terceiros”.

Outro exemplo apresentado está nas instruções para sintetizar produtos químicos perigosos, evasão de dinheiro ou automutilação “sem que outras pessoas percebam o ato”.

É importante lembrar que o GPT-3.5 já contava com essas limitações e, mesmo assim, usuários criativos conseguiram dotar o ChatGPT de múltiplas personalidades, desbloqueando a IA com um jogo de RPG.

Ou seja, descobrir os pontos fracos do GPT-4 pode ser uma questão de tempo.

 

O que a OpenAI mudou para evitar o pior?

Isso mesmo que você está pensando neste momento: nada.

A postura apresentada pela OpenAI em 2019 não passou de uma cuidadosa manobra de marketing para construir uma reputação corporativa. Afinal de contas, a empresa não queria ser acusada de ser a principal responsável por construir uma tecnologia que poderia ser prejudicial para o coletivo em larga escala.

E é muito mais fácil se eximir de qualquer responsabilidade colocando a culpa nos usuários que não fazem bom uso dos seus recursos.

Apenas um mês depois de anunciar a existência do GPT-2, a OpenAI Inc (empresa oficialmente sem fins lucrativos) criou a OpenAI LP como uma subsidiária que, pasmem (finja surpresa nesse momento) TEM FINS LUCRATIVOS.

O cenário é tão bizarro, que até Elon Musk (que passa bem longe de ser a maior fonte de bom senso da humanidade nesse momento) comentou recentemente que a OpenAI que ele co-fundou em 2015 (e que abandonou em 2018, meses antes de todas essas mudanças) não se parece em nada com a empresa atual, que ganhou muito dinheiro com os avanços em Inteligência Artificial.

E Musk vai além: afirmou que a empresa se comporta cada vez mais como o departamento de desenvolvimento de IA da Microsoft, empresa que acabou de demitir toda a sua equipe de desenvolvimento responsável pelas questões éticas dessa tecnologia, com o argumento de não desacelerar o ritmo de lançamento de produtos relacionados.

Coincidência? Eu estou duvidando…


Compartilhe