PUBLICIDADE

Pentágono Diversifica Fornecedores de Inteligência Artificial para Defesa em Meio a Tensão com a Anthropic

06/05/2026
11 visualizações
5 min de leitura
Imagem principal do post

Governo dos Estados Unidos amplia fornecedores de inteligência artificial para defesa e reavalia relação com a Anthropic

O Departamento de Defesa dos Estados Unidos firmou novos acordos com Microsoft, Amazon, Nvidia e a startup Reflection AI, autorizando o uso de seus sistemas de inteligência artificial em operações classificadas. Com isso, essas quatro empresas se juntam à OpenAI, Google e xAI no grupo de fornecedores aprovados para atuar em qualquer finalidade legal dentro do aparato de defesa do país. A medida representa uma expansão significativa da base tecnológica disponível às forças armadas americanas, que buscam se consolidar como uma organização militar orientada pela inteligência artificial.

Imagem complementar

Os novos fornecedores terão permissão para operar em redes com dois dos níveis mais restritos de classificação de dados do governo americano. O sexto nível corresponde a informações sigilosas, enquanto o sétimo abrange os materiais mais sensíveis do sistema de defesa. Até o momento, o emprego de modelos generativos de inteligência artificial no Pentágono se restringia a tarefas não classificadas, como elaboração de documentos, resumos e pesquisas internas. A expectativa é que a ampliação permita avançar para funções mais complexas, como síntese de dados operacionais, compreensão situacional avançada e apoio à tomada de decisão em ambientes de combate. A inteligência artificial generativa é capaz de produzir textos, análises e respostas a partir de padrões aprendidos durante o treinamento, o que a torna útil para processar grandes volumes de informação rapidamente.

PUBLICIDADE

O Pentágono justificou a expansão com base na necessidade de evitar a dependência de um único fornecedor. Em nota oficial, o departamento declarou que continuará construindo uma arquitetura tecnológica que previna o aprisionamento a um único fornecedor de inteligência artificial e garanta flexibilidade a longo prazo para as forças conjuntas. Essa estratégia visa assegurar que eventuais mudanças de posição de uma empresa não comprometam operações militares e de segurança. No passado, Google e Amazon já demitiram funcionários que protestaram contra o uso de suas tecnologias em armas e operações de guerra, o que evidencia a tensão existente entre interesses corporativos e demandas militares.

A startup Reflection AI chama a atenção por ainda não ter lançado um modelo publicamente disponível. Mesmo assim, a empresa conquistou aprovação para trabalhar com dados classificados, o que sugere que o Pentágono está disposto a apostar em provedores emergentes como forma de diversificar suas opções. Essa abordagem se alinha com uma tendência maior identificada recentemente no setor: pequenas empresas especializadas em inteligência artificial para defesa relatam aumento no interesse de generais e comandantes após os atritos entre o governo e a Anthropic. Startups como Smack Technologies e EdgeRunner AI afirmam ter recebido contatos inesperados de lideranças militares nas últimas semanas, reforçando a busca por alternativas ao ecossistema tradicional de grandes empresas de tecnologia.

A expansão do grupo de fornecedores aprovados se dá em um contexto marcado pelo rompimento da relação entre o governo e a Anthropic. A empresa, criadora do modelo Claude, recusou-se a aceitar a cláusula de qualquer uso legal exigida pelo Pentágono em seus contratos. O diretor-executivo da Anthropic, Darius Amodei, argumentou que essa condição permitiria ao governo utilizar a tecnologia para vigilância da população civil americana e para o desenvolvimento de armas autônomas, dois usos que a empresa buscava restringir. O Pentágono cancelou um contrato de 200 milhões de dólares com a Anthropic, que respondeu entrando com uma ação judicial, alegando perdas de milhões em receitas do governo e de outras entidades influenciadas pela decisão.

Pela primeira vez na história, o governo americano classificou uma empresa sediada no país como risco para a cadeia de suprimentos. Fontes governamentais qualificaram a Anthropic como uma empresa de viés ideológico, em um rótulo que reflete a tensão política em torno do tema. Modelos de inteligência artificial treinados com grandes volumes de dados podem incorporar vieses presentes nesses dados, o que gera debates acalorados sobre os limites éticos de seu uso por governos e forças de segurança.

Apesar do conflito público, a posição do governo em relação à Anthropic pode estar passando por uma revisão. Segundo informações do site de notícias Axios, uma fonte da Casa Branca indicou que a administração estaria buscando maneiras de salvar a aparência e reconduzir a empresa ao grupo de fornecedores. O modelo de codificação Claude, da Anthropic, supostamente continua em uso por organizações de segurança do governo americano durante todo o período dos eventos recentes. Além disso, o modelo Mythos, também da Anthropic, é utilizado pela Agência de Segurança Nacional no contexto de cibersegurança e defesa cibernética. Em nível global, o Mythos está em avaliação por 40 organizações, das quais apenas 12 foram identificadas publicamente. Estima-se que o serviço de inteligência britânico MI5 e a Agência de Segurança Nacional dos Estados Unidos estejam entre as 28 organizações não reveladas.

A Casa Branca, por sua vez, afirmou que o governo americano continua engajado de forma proativa com diferentes setores do governo e da indústria para proteger o país e a população, incluindo a colaboração com laboratórios de inteligência artificial de ponta. A declaração reforça que a estratégia de defesa nacional depende de parcerias contínuas com o setor privado, mesmo diante de desentendimentos pontuais com determinados fornecedores. A diversificação recente do grupo de empresas aprovadas sugere que a administração quer reduzir a vulnerabilidade a interrupções futuras, garantindo que múltiplas opções tecnológicas estejam disponíveis para as forças armadas.

A saída da Anthropic do conjunto principal de fornecedores, caso se mantenha, pode deixar uma lacuna no uso do Claude dentro da ferramenta Maven, da empresa Palantir, que é empregada em material classificado. Os novos fornecedores aprovados deverão preencher esse espaço, assumindo funções antes desempenhadas pelos modelos da Anthropic. A substituição, no entanto, depende da capacidade das novas empresas de oferecer resultados equivalentes em ambientes de alta complexidade e segurança. O desafio técnico é considerável, uma vez que operações classificadas exigem modelos com alto grau de confiabilidade e baixa probabilidade de exposição de informações sensíveis.

O caso Anthropic evidencia uma questão central que tende a se repetir à medida que mais empresas de inteligência artificial firmam contratos com governos. A definição dos limites éticos do uso dessas tecnologias em contextos militares e de segurança permanece um ponto de atrito entre desenvolvedores e autoridades. Enquanto uns argumentam pela necessidade de restrições claras, especialmente em relação a vigilância civil e armas autônomas, outros defendem que contratos governamentais não devem ser condicionados a exigências ideológicas. O resultado desse debate terá consequências diretas sobre o formato futuro das parcerias entre o setor de tecnologia e os aparatos de defesa ao redor do mundo.

PUBLICIDADE

Leitura recomendada

Comentários

Nenhum comentário ainda. Seja o primeiro a comentar!