Portal Fio Da Verdade sexta-feira, 20 de março de 2026
Fio Da Verdade Tecnologia
Tecnologia sexta-feira, 20 de março de 2026 03:37

Pentágono quer banir Claude, mas militares resistem à troca e expõem tensão entre política e eficiência

Willian Corrêa 2 min leitura Atualizado em sexta-feira, 20 de março de 2026

O secretário de Defesa dos Estados Unidos, Pete Hegseth, classificou a Anthropic como risco à cadeia de suprimentos militares e ordenou o banimento do uso do Claude no Pentágono e entre contratados após um prazo de seis meses. A decisão, motivada por desentendimentos sobre limites de uso das ferramentas de IA militares, encontrou resistência interna inesperada: funcionários de carreira e contratados de TI consideram o Claude superior às alternativas e estão relutantes em abandonar a ferramenta. Veja bem, isso não é apenas uma questão de preferência tecnológica — é um choque entre decisão política e realidade operacional.

O contexto é determinante. Em julho de 2025, a Anthropic firmou contrato de US$ 200 milhões com o Departamento de Defesa, tornando o Claude o primeiro modelo de IA aprovado para operar em redes militares classificadas. Durante meses, a ferramenta foi usada para direcionamento de armamentos, planejamento de operações, manuseio de material classificado e análise de informações. Ora, o que se vê aqui é uma dependência criada — e agora, uma ruptura abrupta que expõe a fragilidade de contar com tecnologia privada para missões críticas.

Me parece que o ponto central é o custo da substituição. Recertificar um sistema existente para nova plataforma pode levar de 12 a 18 meses, processo caro que representa perda de produtividade significativa. Desenvolvedores relatam frustração com a ausência do Claude Code, ferramenta de escrita de código amplamente utilizada. Tarefas antes automatizadas agora são feitas manualmente — incluindo trabalho em Microsoft Excel. Não se trata de simples troca de software — trata-se de desmontar infraestrutura construída ao longo de meses.

A análise precisa considerar a dimensão ética. O desentendimento entre Anthropic e Departamento de Defesa envolve limites de uso das ferramentas de IA militares — questão que, até agora, não tem resposta clara em nenhum país. De um lado, a empresa argumenta por salvaguardas éticas; do outro, o Pentágono defende autonomia operacional. O impasse reflete tensão mais ampla: até onde empresas de tecnologia podem ir em aplicações militares sem comprometer princípios de segurança?

A pergunta que resta é: quem sai perdendo nessa história? A resposta provavelmente é todos. O Pentágono perde produtividade e enfrenta custos de transição. A Anthropic perde contrato significativo. E os militares, no campo, continuam usando o Claude às escondidas — apostando que o impasse será resolvido antes do prazo. Uma coisa é certa: em 2026, a dependência de IA militar não é mais teórica — é real, e os custos de mudança são altos demais para serem ignorados.


Palavras-chave: Pentágono, Claude, IA, militares, troca, Estados Unidos, Washington, Defesa


Hashtags

#noticias