Anthropic disse não ao Pentágono e agora enfrenta as consequências

Anthropic disse não ao Pentágono e agora enfrenta as consequências

O Departamento de Defesa dos EUA sancionou a Anthropic por se recusar a retirar os limites éticos de sua IA. Esta disputa revela o controle sobre a IA em tempos de guerra.

Simón ArceSimón Arce18 de março de 20267 min
Compartilhar

Anthropic disse não ao Pentágono e agora enfrenta as consequências

No dia 4 de março de 2026, o Departamento de Defesa dos EUA classificou a Anthropic como um "risco para a cadeia de suprimento de segurança nacional". No dia seguinte, Dario Amodei confirmou que a empresa levaria o caso aos tribunais. Até o dia 10 de março, a ação estava protocolada no Tribunal do Distrito Norte da Califórnia, com a Microsoft apresentando um escrito de apoio, enquanto mais de mil funcionários da OpenAI e do Google assinavam uma declaração conjunta rejeitando as sanções.

A velocidade do escalonamento revela algo que os comunicados de imprensa não mencionam: esta não é uma disputa sobre cláusulas contratuais. É o primeiro teste real de força entre o Estado e o setor privado de IA sobre quem tem a autoridade final para decidir o que um modelo de inteligência artificial pode fazer quando a ordem vem de um uniforme militar.

O contrato que acendeu a mecha

Em julho de 2025, a Anthropic assinou um contrato de 200 milhões de dólares com o Departamento de Defesa. O acordo permitia o uso do Claude em operações classificadas, incluindo o rastreamento de imigrantes para o Serviços de Imigração e Controle de Aduanas e operações de captura de alvos de alto valor. Porém, o contrato incluía duas restrições explícitas: Claude não poderia tomar decisões letais de maneira autônoma sem aprovação humana, e não poderia executar vigilância massiva e indiscriminada sobre cidadãos americanos.

Essas restrições não eram uma letra miúda nem uma concessão de última hora. Eram o cerne da proposta de valor que a Anthropic construiu desde sua fundação em 2021, quando Dario Amodei e Daniela Amodei saíram da OpenAI para apostar em um desenvolvimento de IA que priorizasse a segurança em relação à velocidade comercial. O Pentágono sabia disso ao assinar o contrato e o aceitou.

O que mudou foi a administração. Em janeiro de 2026, o secretário de Defesa, Pete Hegseth, emitiu um memorando sob a estratégia denominada "AI-First Combat Power", que exigia que todos os contratos de IA do Departamento de Defesa incluíssem cláusulas de "qualquer uso legal" dentro de 180 dias. O memorando colidiu diretamente com o que a Anthropic havia acordado. No dia 24 de fevereiro, Hegseth se reuniu pessoalmente com Amodei e o advertiu que, se não retirasse as restrições até a próxima sexta-feira, invocaria o Título I da Lei de Produção de Defesa para forçar o cumprimento ou exigir o re-treinamento do modelo.

Amodei respondeu com três palavras que, no mundo corporativo, costumam ser caras: "Não podemos cumprir".

O que a Lei de Produção de Defesa não pode comprar

A ameaça de invocar o Título I da Lei de Produção de Defesa merece uma análise específica, pois revela a fragilidade do argumento governamental. Essa lei foi concebida para garantir o acesso prioritário do Estado a recursos produtivos durante crises: aço, semicondutores, equipamentos médicos. Sua aplicação histórica tem sido sobre bens físicos com cadeias de produção rastreáveis.

Aplicá-la aos princípios de design de um modelo de linguagem é um salto legal de proporções consideráveis. Como destaca a análise do Lawfare citada na cobertura do caso, o Título I garante acesso prioritário, mas complicaria imensamente a exigência jurídica pela eliminação de salvaguardas incorporadas ao modelo ou seu re-treinamento. A analogia com uma siderúrgica não se sustenta. Um governo pode ordenar a uma fábrica que produza aço para torpedos em vez de vigas de construção. Ordenar a uma empresa que modifique os valores éticos codificados em um modelo de IA é um território legal sem precedentes claros.

Essa ambiguidade é, paradoxalmente, o instrumento mais eficaz do Departamento de Defesa. Como o próprio Lawfare alerta: a ameaça de invocar uma lei cujas implicações ninguém compreende completamente pode ser suficiente para obter a capitulação sem necessidade de usá-la. A incerteza gera pressão. E a pressão, em empresas com investidores e contratos em risco, geralmente funciona melhor do que os decretos.

A Anthropic escolheu o único caminho que elimina essa ambiguidade: os tribunais.

O mapa de lealdades e o que revela sobre o setor

O mais significativo deste episódio não é a ação judicial em si, mas quem se alinhou com cada parte e a velocidade desse alinhamento.

A Microsoft apresentou um apoio no mesmo dia em que a Anthropic protocolou a ação, argumentando que a IA não deveria ser usada para vigilância doméstica em grande escala nem para iniciar guerras sem controle humano. Jeff Dean e mais de quarenta figuras da indústria assinaram uma declaração advertindo que sancionar uma empresa de IA estadunidense poderia prejudicar gravemente a competitividade científica e industrial do país. O Information Technology Industry Council, que representa Nvidia, Amazon, Apple e OpenAI, alertou que as sanções poderiam minar o acesso do próprio governo aos melhores produtos e serviços.

Do outro lado, empresas como a xAI de Elon Musk aceitaram os termos do Pentágono para trabalho classificado, consolidando uma fissura visível no setor entre aqueles que consideram que a postura ética tem um custo de oportunidade inaceitável e aqueles que acreditam que ceder é o início de uma ladeira sem retorno.

Essa fissura importa porque expõe a lógica subjacente a cada modelo de negócio. Uma empresa que depende criticamente de contratos governamentais para sustentar seu crescimento tem pouco espaço para manter posições que irritem o maior cliente do mercado. Uma empresa que construiu sua diferenciação precisamente sobre as restrições que o governo quer eliminar enfrenta o problema inverso: ceder destruiria o ativo que a torna valiosa.

A Anthropic não está defendendo princípios abstratos. Está defendendo a única vantagem competitiva que a separa de seus concorrentes em um mercado onde os modelos técnicos convergem a cada trimestre.

O precedente que ninguém quer nomear

Se o Departamento de Defesa ganhar este caso, o efeito sobre a indústria não será imediato nem dramático. Será gradual e sistêmico. Cada empresa que negociar um contrato federal de IA saberá que qualquer restrição de uso pode ser proclamada um risco à segurança nacional em um momento de tensão política. Essa certeza altera os incentivos de design mesmo antes de qualquer acordo ser assinado.

O Information Technology Industry Council articulou isso com precisão técnica: as sanções poderiam limitar o acesso do governo aos melhores produtos disponíveis. A paradoxa é que o Estado, ao pressionar para eliminar restrições, pode acabar tendo acesso a modelos mais obedientes, mas menos capazes, desenvolvidos por empresas que aprenderam a construir sem limites porque esses limites são politicamente inconvenientes.

O tribunal do Distrito Norte da Califórnia terá que resolver uma pergunta que o Congresso ainda não respondeu: se uma empresa privada pode estabelecer contratualmente restrições de uso sobre sua tecnologia quando esse uso envolve decisões letais, ou se a doutrina de segurança nacional pode dissolver qualquer acordo privado quando o considera inconveniente.

Especialistas em direito administrativo citados na cobertura do caso sugerem que a solução estrutural não está nos tribunais, mas no Congresso, que até agora não estabeleceu um marco legislativo específico para o uso militar de sistemas de IA. Enquanto esse vazio persistir, o Pentágono preenche o espaço com memorandos, e as empresas respondem com ações judiciais.

O que a Anthropic colocou na mesa no dia 10 de março de 2026 não é apenas seu contrato de 200 milhões de dólares. É a pergunta se uma organização pode sustentar um propósito fundacional quando seu cliente mais poderoso decide que esse propósito é um obstáculo. A cultura de toda organização é o resultado natural de perseguir esse propósito com consequência, ou, por outro lado, o sintoma inevitável de todas as vezes em que a liderança preferiu o contrato sobre a convicção.

Compartilhar
0 votos
Vote neste artigo!

Comentários

...

Você também pode gostar