Press "Enter" to skip to content

IA moderna perde para jogo de Atari de 1979

Compartilhe

Em um experimento que mais parece roteiro de comédia nerd, dois dos modelos de inteligência artificial mais avançados da atualidade — ChatGPT, da OpenAI, e Copilot, da Microsoft — foram colocados frente a frente com uma relíquia tecnológica: o jogo “Video Chess”, lançado para o Atari 2600 em 1979.

O desafio era derrotar um jogo de xadrez com apenas 4 KB de memória. Mas o que testemunhamos foi um vexame completo para os algoritmos do século XXI.

E se você se sentia mal porque jamais conseguia terminar os jogos do Atari por serem difíceis demais, pode respirar aliviado. Você ainda é, no mínimo, tão inteligente quanto uma inteligência artificial para os videogames.

 

ChatGPT arregou para o Atari

A ideia partiu do engenheiro da Citrix, Robert Caruso, que já havia testado anteriormente o ChatGPT contra o Video Chess e viu a IA se enrolar como um peão fora de lugar.

Desta vez, ele resolveu repetir o teste, mas ampliando a disputa ao incluir o Copilot, reforçando a tese de que a inteligência artificial ainda engatinha quando o assunto envolve raciocínio lógico sustentado e memória de longo prazo.

O ponto de partida da experiência foi uma conversa com o ChatGPT, onde o chatbot se declarou um jogador forte o suficiente para vencer facilmente o jogo antigo.

Motivado pela autoconfiança do modelo, Caruso utilizou o emulador Stella para simular o ambiente do Atari 2600 e iniciou uma partida em nível iniciante — o mais fácil do jogo.

Durante os 90 minutos que se seguiram, ChatGPT demonstrou completa incapacidade de manter o controle do tabuleiro: confundiu as peças, perdeu a noção da posição delas e precisou de várias correções humanas ao longo do jogo.

E a derrota foi inevitável.

 

O Copilot também pediu água

Mas Caruso não parou por aí. Ele não é brasileiro, mas aparentemente não desiste nunca.

Pensando que talvez o produto da Microsoft se saísse melhor — quem sabe até virasse o novo Deep Blue — ele convocou o Copilot para o embate.

E aí a coisa ficou ainda mais embaraçosa.

Durante a “conversa de preparação”, o Copilot garantiu que conseguiria acompanhar o jogo, entender o tabuleiro e responder de forma coerente. Mas na prática, não passou nem perto disso.

Ao ser solicitado que representasse o estado atual do tabuleiro, o Copilot apresentou uma configuração que não correspondia em nada ao jogo real.

Em um dos momentos mais constrangedores, sugeriu uma jogada suicida: posicionar sua dama bem na frente da rainha adversária — movimento que, como qualquer iniciante sabe, resultaria na captura imediata da peça mais valiosa do jogo.

E isso no turno sete, quando já havia perdido dois peões, um cavalo e um bispo.

Um desastre tático completo.

 

Por que esse experimento é importante?

Apesar do marketing incessante das Big Techs, que prometem máquinas capazes de substituir programadores, médicos e até juízes, na prática, os modelos generativos ainda se comportam como papagaios estatísticos.

As IAs apenas estão prevendo a próxima palavra ou elemento visual com base em padrões, sem real entendimento do contexto, das regras ou da lógica envolvida nas tarefas.

Modelos como ChatGPT e Copilot não possuem memória persistente eficaz nem compreensão estratégica — duas habilidades fundamentais para se jogar xadrez, mesmo contra um oponente de 1979.

No fundo, eles não sabem o que estão fazendo. E quando colocados diante de um desafio que exige mais do que completamento preditivo de frases, a ilusão de inteligência desmorona.

Para os entusiastas da IA, tudo isso é um alerta cômico, mas essencial.

Antes de entregarmos o volante de nossos carros, nossos diagnósticos médicos ou nossas decisões financeiras nas mãos de algoritmos, é bom lembrar: se eles não conseguem distinguir uma torre de um bispo num tabuleiro em 8 bits, talvez ainda não estejam prontos para comandar o futuro.

 

Via Windows Central


Compartilhe