Press "Enter" to skip to content

Por que Trump declarou guerra à Anthropic?

O governo de Donald Trump tomou uma decisão sem precedentes ao ordenar que todas as agências federais cortem laços com a Anthropic, uma das mais promissoras empresas de inteligência artificial do país.

O estopim para essa ruptura histórica foi a recusa da empresa em remover duas cláusulas de segurança fundamentais de seu contrato com o Departamento de Defesa. A Anthropic, criadora do chatbot Claude, se mantém firme em seu propósito de não permitir que sua tecnologia seja usada em sistemas de armas autônomas ou na vigilância em massa de cidadãos americanos.

Para o Pentágono, rebatizado pelo atual governo como “Departamento de Guerra”, essa postura é vista como uma intromissão inaceitável em assuntos de segurança nacional.

Este confronto direto coloca em xeque o futuro da liderança tecnológica dos Estados Unidos e acende um alerta vermelho sobre os limites éticos que devem (ou não) ser impostos às máquinas no contexto bélico.

Quando a Anthropic é classificada como um “risco à cadeia de suprimentos” — um selo normalmente reservado para adversários estrangeiros como a Huawei —, o governo Trump envia uma mensagem clara e preocupante para todo o setor: ou você se alinha sem restrições, ou será excluído do jogo.

 

O ultimato e a linha vermelha da Anthropic

A tensão atingiu seu ponto máximo durante uma reunião no Pentágono entre o CEO da Anthropic, Dario Amodei, e o secretário de Defesa, Pete Hegseth. O que deveria ser uma negociação de rotina sobre a renovação de um contrato de até 200 milhões de dólares transformou-se em um impasse filosófico e comercial.

O governo exigiu que a empresa retirasse quaisquer restrições ao uso de seu modelo Claude, buscando liberdade total para aplicar a IA em qualquer operação militar.

Do lado de fora dos gabinetes oficiais, a empresa deixou sua posição muito clara ao público. Em um comunicado contundente, Amodei afirmou que “ameaças não mudam nossa posição: não podemos em sã consciência aceitar o pedido” do Pentágono.

A empresa argumenta que abrir mão dessas salvaguardas não só violaria seus princípios fundadores, como também estabeleceria um precedente perigoso para o controle de tecnologias que podem decidir entre a vida e a morte sem supervisão humana.

A resposta do governo foi imediata e duríssima, pegando muitos analistas de surpresa.

Trump usou sua rede social, Truth Social, para decretar o banimento, afirmando que “não precisamos, não queremos e nunca mais faremos negócios com eles”, além de ameaçar a empresa com “consequências civis e criminais” caso não cooperasse com a transição.

A classificação da Anthropic como um “risco à cadeia de suprimentos” significa que qualquer contratante do governo que deseje fazer negócios com o Pentágono não poderá mais utilizar os serviços da startup, potencialmente isolando-a de uma fatia gigantesca do mercado.

 

Um precedente perigoso, e o fantasma da Huawei

A decisão de rotular uma empresa pioneira em IA como uma ameaça à segurança nacional é um movimento tão agressivo quanto simbólico.

Especialistas foram rápidos em traçar um paralelo preocupante com as sanções impostas à gigante chinesa Huawei, que foram justificadas sob alegações semelhantes de segurança, mas num contexto de rivalidade geopolítica. Agora, o governo americano aplica a mesma lógica a uma de suas “joias da coroa” tecnológicas.

Críticos dentro e fora do governo apontam a ironia e o perigo dessa decisão.

Saif Khan, ex-funcionário do Conselho de Segurança Nacional, classificou a ação como “a medida regulatória de IA doméstica mais draconiana que qualquer governo já emitiu”, destacando que a Anthropic está sendo tratada como uma ameaça maior do que qualquer empresa chinesa de IA. Isso levanta questões incômodas sobre o que realmente define uma ameaça: a origem da empresa ou sua disposição em questionar o estado?

Para a Anthropic, as consequências podem ser devastadoras, embora não signifiquem necessariamente o fim da linha.

Apesar de avaliada em cerca de 380 bilhões de dólares e ter um robusto mercado empresarial, a designação de “risco” pode afetar indiretamente sua base de clientes. Muitas das grandes empresas que usam Claude também possuem contratos com o Pentágono e, para não perderem esses negócios, podem ser forçadas a abandonar a plataforma da Anthropic.

 

A reação do setor e a solidariedade inesperada

Num raro momento de união, os rivais de Silicon Valley decidiram apoiar a Anthropic, transformando uma possível derrota isolada em uma frente comum contra as exigências do governo.

Mais de 550 engenheiros e funcionários de gigantes como Google DeepMind e OpenAI assinaram uma carta aberta intitulada “Não Seremos Divididos”, instando suas empresas a não cederem às pressões do Pentágono.

O movimento mostra que a questão ética transcende a competição comercial.

O gesto mais surpreendente, porém, veio de Sam Altman, CEO da OpenAI.

Altman, que já teve desavenças públicas com a Anthropic, saiu em defesa da concorrente e afirmou compartilhar das mesmas preocupações.

Em uma jogada que muitos interpretaram como uma tentativa de mediar o conflito ou, no mínimo, de não ficar do lado “errado da história”, Altman revelou que sua própria empresa estava negociando com o Pentágono cláusulas éticas muito semelhantes às defendidas pela Anthropic.

Essa demonstração de solidariedade expõe uma racha no coração da indústria tecnológica.

De um lado, figuras alinhadas ao governo, como Elon Musk, que atacou a Anthropic nas redes sociais. Do outro, uma base de funcionários e líderes que temem que a autonomia irrestrita para máquinas de guerra possa levar a consequências catastróficas, ecoando os protestos de 2018, quando funcionários do Google forçaram a empresa a se retirar do Projeto Maven, que usava IA para analisar imagens de drones.

 

O futuro da guerra e o dilema das máquinas

No centro de toda essa polêmica está uma pergunta que a humanidade tenta responder há décadas: quem deve ter o poder de decidir sobre a vida e a morte?

A Anthropic defende que suas “linhas vermelhas” são barreiras de proteção contra um futuro distópico onde algoritmos tomem decisões autônomas em campos de batalha ou monitorem cada passo da população sem qualquer controle judicial. Para a empresa, entregar uma tecnologia tão poderosa sem salvaguardas é simplesmente irresponsável.

O Pentágono, por sua vez, rebate com um argumento prático e legalista.

Autoridades afirmam que a lei americana já é suficiente para reger o uso dessas ferramentas e que “a legalidade é responsabilidade do Pentágono como usuário final”. Na visão militar, não se pode liderar operações táticas dependendo de autorizações de uma empresa privada a cada novo cenário de conflito.

Eles argumentam que as restrições da Anthropic poderiam, em tese, colocar soldados em risco ao limitar o uso de ferramentas potencialmente salvadoras de vidas.

Essa batalha ideológica acontece num mundo onde os conflitos já estão sendo transformados pela automação. As guerras na Ucrânia e em Gaza já serviram como laboratórios para sistemas cada vez mais autônomos, tornando o debate sobre “robôs assassinos” algo tangível e urgente.

A decisão de Trump, ao eliminar as salvaguardas de uma das principais empresas de IA, pode estar pavimentando um caminho sem volta para uma corrida armamentista digital sem regras claras, onde a eficiência militar se sobrepõe a qualquer consideração ética.

 

A nova geopolítica da inteligência artificial

Ao expulsar a Anthropic, o governo Trump não apenas puniu uma empresa, mas também redefiniu as regras do jogo para toda a indústria. A mensagem enviada para OpenAI, Google e outras é clara: adaptem-se ou estarão fora do imenso orçamento de defesa.

Este movimento pode sufocar a inovação justamente no setor onde os EUA mais precisam dela para competir com China e Rússia, criando um ambiente onde apenas empresas “alinhadas” — como a xAI de Elon Musk — terão espaço.

A curto prazo, a substituição da tecnologia da Anthropic em sistemas classificados do governo não será trivial.

Embora Musk tenha oferecido o Grok como alternativa, muitos especialistas consideram que o modelo da Anthropic, Claude, é superior e já estava profundamente integrado nas redes de inteligência. O “apagão” tecnológico forçado pode criar vulnerabilidades temporárias num momento de tensões globais elevadas.

O episódio pode acelerar um movimento de “nacionalização” da inovação em IA.

Se o governo está disposto a queimar pontes com um dos seus principais campeões tecnológicos por causa de desavenças contratuais, o que esperar do futuro?

A crise entre Trump e a Anthropic pode ser apenas o primeiro tiro de uma guerra muito mais longa, que determinará se a inteligência artificial será uma ferramenta a serviço da humanidade com limites claros, ou uma arma sem dono, cujo único objetivo é a eficácia máxima, custe o que custar.