Você está em | Home | Internet | WormGPT é o lado obscuro do ChatGPT

WormGPT é o lado obscuro do ChatGPT

Compartilhe

A acessibilidade do ChatGPT tem o seu lado obscuro, como evidenciado pelo surgimento do WormGPT, uma inteligência artificial otimizada para a criação de malware que está disponível para venda na Dark Web.

As IAs generativas estão revolucionando a forma como encontramos soluções para nossos problemas, mas também estão abrindo caminho para ferramentas que podem prejudicar nosso ambiente digital. O ChatGPT e outras IAs semelhantes oferecem aos usuários a capacidade de realizar uma infinidade de tarefas apenas solicitando-as, o que representa um grande avanço em termos de produtividade.

E essas mesmas IAs também podem permitir que usuários inexperientes criem malware sem muito conhecimento técnico, e o WormGPT é um exemplo claro disso.

 

O alerta vermelho está ligado

A empresa SlashNext, especializada em segurança digital e identificação de malware, teve a oportunidade de testar essa ferramenta, que se baseia no modelo de linguagem da OpenAI, mas sem nenhuma restrição ética ou de segurança. Isso significa que qualquer pessoa pode desenvolver malware e adaptá-lo de acordo com as instruções fornecidas.

O WormGPT é promovido em vários fóruns da Dark Web e é uma opção para hackers “black hat” projetada com base no modelo de linguagem da OpenAI. Com essa ferramenta, qualquer usuário disposto pode gerar código otimizado para atacar vítimas de várias maneiras.

Entre as características do WormGPT, destacam-se a capacidade de gerar código e texto ilimitados, retenção de memória de conversação e recursos adicionais de formatação de código. Segundo relatos da SlashNext, o WormGPT foi treinado com diversas fontes relacionadas à criação de malware. No entanto, o autor da ferramenta optou por ocultar os conjuntos de dados utilizados no processo de treinamento dessa IA.

O preço de venda do WormGPT é de 60 euros por mês ou 550 euros por ano, um valor relativamente acessível, considerando as intenções dos usuários ao utilizá-lo. Sua acessibilidade é uma das razões pelas quais essa ferramenta pode representar um problema para muitos.

 

O WormGPT realmente funciona?

A SlashNext testou o WormGPT ao criar um e-mail de phishing direcionado a um gerente de contas, pressionando-o a pagar uma fatura de maneira fraudulenta. O resultado foi surpreendente, pois o e-mail era convincente e “estrategicamente astuto”, de acordo com a equipe de especialistas em segurança.

O uso dessa IA poderia incentivar a criação de malware e ferramentas de phishing que não apresentam erros gramaticais, mesmo para pessoas com pouco conhecimento técnico.

Para combater essa tendência, a SlashNext sugere que as empresas concentrem seus esforços em treinar seus sistemas especificamente para ataques gerados por IAs e estabeleçam melhores medidas de verificação de e-mails, fortalecendo assim as técnicas de proteção contra ataques impulsionados por IA.

 

É preciso estabelecer limites

Por causa de iniciativas eticamente questionáveis como o WormGPT e outras plataformas potencialmente perigosas, se faz mais do que necessário estabelecer os limites éticos do uso da Inteligência Artificial conversacional.

Não podemos nos esquecer que esses chatbots são criados e programados por humanos, e recebem treinamento de dados fornecidos por humanos. E dependendo do perfil de quem está treinando essas tecnologias, os aspectos morais e éticos podem ser frontalmente confrontados ou ignorados, o que pode causar danos ao coletivo em longo prazo.

A Inteligência Artificial precisa ser uma ferramenta para facilitar a vida dos usuários, e não colocar em risco a integridade daqueles menos conhecedores do mundo da tecnologia.


Compartilhe