TargetHD.net | Notícias, Dicas e Reviews de Tecnologia Sete usos perigosos do ChatGPT | TargetHD.net Press "Enter" to skip to content
Você está em | Home | Tecnologia | Sete usos perigosos do ChatGPT

Sete usos perigosos do ChatGPT

Compartilhe

O ChatGPT é uma maravilha para deixar a nossa vida mais prática e funcional. Porém, se uma coisa consegue despertar medo e preocupação em Elon Musk, que todo mundo sabe que passa bem longe de ser a pessoa mais sensata do mundo, é melhor que todos prestem mais atenção no assunto.

O ser humano é o grande problema para qualquer coisa que acontece no mundo, o que me leva a crer que Ultron e Thanos sempre tiveram uma certa dose de razão. E o ChatGPT nas mãos erradas pode ser um recurso muito perigoso.

Neste artigo, vou mostrar sete usos perigosos de uma IA conversacional como é o ChatGPT.

 

Um aliado perfeito para o phishing

Com o ChatGPT, acabaram os problemas daqueles golpistas que são analfabetos, pois a Inteligência Artificial consegue corrigir todos os erros de ortografia de forma automática.

Basta pedir para a IA redigir uma mensagem de e-mail como se fosse uma entidade privada ou pública com alguma oferta generosa ou irresistível. E as portas para os golpes em massa estão mais do que abertas.

 

Desenvolvimento de malware

Você não precisa ser um programador experiente para desenvolver malwares. Basta pedir para o ChatGPT escrever o código para você. É só saber dar as instruções corretas para a IA.

Isso é possível quando você faz uma série de perguntas para o ChatGPT com o objetivo final de desenvolver o código malicioso em função dos questionamentos previamente feitos para a Inteligência Artificial.

Dessa forma, qualquer pessoa pode criar um arsenal de armas cibernéticas em escala industrial, com possibilidades quase infinitas.

 

Desinformação

Engraçado… essa era uma preocupação da OpenAI no GPT-2, mas a empresa aparentemente deu de ombros para isso.

A partir de agora, está muito mais difícil detectar logo de cara que uma notícia é falsa, pois o ChatGPT produz o texto de forma minimamente crível e com qualidade aceitável.

Isso pode ser muito perigoso, dependendo do alcance da notícia falsa em questão e das pessoas envolvidas nessa notícia.

 

O aumento dos crimes cibernéticos

Com a ajuda do ChatGPT, os criminosos digitais podem criar páginas web fraudulentas com uma facilidade muito maior, uma vez que não é preciso conhecer absolutamente nada sobre os códigos de desenvolvimento de sites.

Tal possibilidade já gera discussões em todo o mundo sobre o possível uso indevido dos modelos linguísticos da Inteligência Artificial conversacional, na tentativa de prevenir o aumento em escala dos sites maliciosos.

 

A criação de perfis falsos

O ChatGPT também pode ser utilizado para criar um perfil falso mais completo, o que pode resultar em um aumento em escala de contas que vão disseminar informações falsas ou executar delitos online de diferentes tipos.

Dessa forma, os perfis falsos são mais difíceis de serem detectados, o que aumenta o perigo para a sociedade como um todo.

 

A manipulação de opiniões

Outro problema bem óbvio com o advento desse tipo de tecnologia.

Agora, é possível manipular as opiniões das pessoas pela internet de forma muito mais simples, pois o ChatGPT pode ser utilizado para gerar falsos comentários positivos ou negativos sobre um produto ou uma pessoa em particular.

Pense nos danos que tal prática já causa no mundo de hoje, e como isso pode ser ainda pior no futuro.

 

Discriminação na seleção de dados

Por fim, o ChatGPT pode fomentar a discriminação na contratação de empregados, segregando perfis com traços étnicos, raciais e de condição sexual.

Como essa é uma IA que trabalha com aprendizagem de máquina, as chances dessa tecnologia se tornar racista, misógina e homofóbica são enormes.

Até porque outras plataformas que hoje utilizam algoritmos para determinar o seu comportamento de funcionamento já contam com traços discriminatórios. Imagine uma Inteligência Artificial que aprende com a conversa estabelecida com o usuário.


Compartilhe