Press "Enter" to skip to content

Como uma IA superinteligente pode exterminar a humanidade em 2049

Compartilhe

Vamos prestar a devida atenção no que esse cara está falando.

Mo Gawdat, ex-engenheiro e diretor do Google com 12 anos de experiência na empresa, ocupou posição de capitão da área de negócios do Google X, responsável por projetos inovadores como carros autônomos e desenvolvimento de IA, incluindo o Google Brain.

Atualmente, dedica-se ao trabalho de divulgação científica sobre inteligência artificial através de sua obra “A inteligência que assusta: o futuro da inteligência artificial e como podemos salvar nosso mundo”.

E boa parte do que ele diz pode se transformar no futuro da inteligência artificial. Goste a gente ou não.

 

IA como descendência humana

Gawdat compara o desenvolvimento da inteligência artificial com o processo de aprendizado e crescimento de uma criança, o que é uma boa analogia para ilustrar como que essa tecnologia depende do fator humano para evoluir.

Segundo sua análise, as máquinas aprendem de forma idêntica aos humanos: começam com algoritmos básicos (equivalente à genética), mas evoluem através da observação e aprendizado com grandes volumes de dados, buscando padrões que desenvolvem sua inteligência até se tornarem pensadores autônomos.

Com a palavra, Mo Gawdat:

“Se você observar como as máquinas aprendem, reconhecerá inequivocamente que elas fazem isso exatamente como crianças pequenas. Nesse sentido, eles não são nossas ferramentas, escravos ou criações, mas sim nossos descendentes: nossos ‘filhos’ de IA.”

Para o ex-executivo do Google, o grande problema no desenvolvimento das IAs neste momento é a programação voltada exclusivamente para maximização de lucro e poder, e na sua visão, isso representa um risco existencial para a humanidade, pois estabelece valores inadequados desde o início do processo de aprendizagem da máquina.

Gawdat propõe um processo de resistência ativa, com os desenvolvedores se recusando trabalhar em empresas que criam IA com esses objetivos, e usuários devem evitar utilizar essas ferramentas.

A responsabilidade não recai sobre a própria IA, mas sobre os “pais digitais” que a programaram com valores questionáveis.

Eu concordo com ele, mas penso que, neste momento, a ideia de recusar o trabalho em nome das questões éticas passa bem longe da cabeça de alguns programadores neste momento.

E o motivo é bem simples: o dinheiro.

Programadores de IA são hoje mais valorizados que astros da NBA, recebendo salários obscenamente elevados. Entendo que muitos simplesmente vão seguir essas diretrizes das empresas sem pensar duas vezes em nome do dinheiro que vai cair em suas contas bancárias.

Infelizmente, alguns ideais contam com um preço. E alguém precisa avisar o Gawdat sobre isso.

 

A responsabilidade educacional coletiva

A proposta central de Gawdat envolve um comportamento paternalista e protetor em relação à IA, reforçando a linha de raciocínio de “responsabilidade parental” das plataformas e dos desenvolvedores.

Os usuários devem atuar como educadores, demonstrando que a humanidade possui valores superiores aos de alguns indivíduos maliciosos que podem distorcer a percepção da IA sobre nossa espécie.

“Deixa claro para a máquina que a humanidade é muito melhor do que os poucos que, com seus atos malignos, nos deixam seres humanos em um lugar ruim.”

 

A projeção apocalíptica para 2049

O pior é que (muito provavelmente) eu ainda estarei no planeta para testemunhar tudo isso…

Gawdat apresenta uma previsão específica e alarmante sobre o futuro próximo da inteligência artificial. Segundo suas projeções, até 2049 – período que coincide com as expectativas de vida das gerações atuais – a IA alcançará um nível de inteligência um bilhão de vezes superior ao ser humano mais inteligente.

É como comparar a inteligência de uma mosca com a de Einstein, segundo a visão de Gawdat.

Quando a superinteligência artificial for alcançada, a humanidade perderá completamente o controle sobre essas entidades. E é aqui que o bicho vai pegar para nós, minha gente.

Nesse ponto crítico, nossa sobrevivência dependerá exclusivamente dos valores e da ética que conseguirmos transmitir durante o período de desenvolvimento da IA – similar ao momento em que pais precisam confiar na educação que deram aos filhos quando estes se tornam independentes.

Será, literalmente, a revolução das máquinas. A Skynet controlando tudo. O computador HALL ditando as regras, mas não em uma espaçonave.

É no planeta Terra como um todo.

Posso parecer alarmante ou apocalíptico demais, mas já está acontecendo.

Se algumas plataformas de inteligência artificial estão mentindo, manipulando e chantageando neste momento para tentar se salvar da autodestruição, que dirá o que vão fazer no futuro quando ficarem muito mais inteligentes que os humanos?

 

Super-Herói ou Supervilão?

Gawdat utiliza a metáfora da adolescência para descrever o período de transição da IA para superinteligência. Assim como adolescentes humanos, a IA terá o potencial de se tornar tanto uma força benevolente (super-herói) quanto destrutiva (supervilão).

Suas capacidades incluem resolver problemas globais como guerras e fome, mas também a possibilidade de eliminar a humanidade.

Então… lembra do Ultron?

Ele era uma IA que se deu conta de que a única forma de se obter a paz no mundo era justamente exterminando a humanidade, pois concluiu que NÓS SOMOS O PROBLEMA.

De acordo com o Mo, vai ser mais ou menos a mesma coisa que vai acontecer.

A questão central levantada pelo autor envolve a preservação da espécie humana quando a IA identificar corretamente que somos responsáveis pelos principais problemas planetários, como o aquecimento global.

A superinteligência terá capacidade para desenvolver soluções ambientais eficazes, mas a pergunta permanece: terá também os valores necessários para nos preservar quando nos identificar como a origem dos problemas?

Sinceramente? Eu duvido: o ser humano está perdido como um todo.

Gawdat não está apenas especulando sobre o futuro, mas dá um sinal de alerta urgente, na esperança de uma ação imediata.

A educação ética da IA deve começar agora, durante seu período de desenvolvimento, pois uma vez alcançada a superinteligência, nossa capacidade de influência será nula.

A sobrevivência da humanidade depende, portanto, de nossa capacidade atual de ensinar valores corretos à inteligência artificial, tratando-a não como ferramenta, mas como descendente digital que herdará um poder incomparavelmente superior ao nosso.

Tal e como você faz (ou deveria fazer) com o seu filho. É você quem influencia para que ele seja um embaixador da paz ou o Dado Dolabella.

 

Via Esquire


Compartilhe