PUBLICIDADE

Governo Trump pressiona bancos a usar IA Claude para segurança

11/04/2026
3 visualizações
5 min de leitura
Imagem principal do post

O governo dos Estados Unidos, sob a gestão do presidente Donald Trump, iniciou uma movimentação coordenada para pressionar as maiores instituições financeiras de Wall Street a adotar um novo modelo de inteligência artificial da Anthropic para a detecção de fragilidades em seus sistemas digitais. A iniciativa foca no uso do Claude Mythos, uma versão especializada em identificar falhas de segurança cibernética, para vasculhar o código de bancos como JPMorgan Chase e Goldman Sachs em busca de pontos de invasão. A medida surge após uma reunião de emergência realizada em Washington, onde reguladores federais e autoridades econômicas discutiram a necessidade urgente de ferramentas avançadas frente aos crescentes ataques automatizados.

A Anthropic, empresa de inteligência artificial criadora do assistente Claude e uma das principais concorrentes da OpenAI no setor de modelos de linguagem, desenvolveu o Mythos especificamente para analisar e corrigir erros em códigos de programação complexos. A companhia havia decidido restringir o acesso a este modelo específico após testes internos revelarem capacidades excepcionais, incluindo a habilidade de descobrir vulnerabilidades sofisticadas em navegadores de internet populares. Diferente dos modelos de uso geral, esta ferramenta opera com um foco técnico que permite encontrar brechas que passariam despercebidas por métodos tradicionais de auditoria de software.

Durante o encontro em solo americano, que contou com a presença de figuras como o secretário do Tesouro, Scott Bessent, e o presidente do Federal Reserve, Jerome Powell, o governo enfatizou que a segurança do sistema financeiro nacional depende da antecipação tecnológica. O argumento central é que os bancos devem utilizar as mesmas armas digitais de ponta que adversários estrangeiros e criminosos cibernéticos já estão começando a explorar. Para o governo Trump, a implementação de inteligência artificial para a defesa cibernética não é apenas uma opção técnica, mas um pilar estratégico da segurança econômica nacional.

PUBLICIDADE

Contudo, a pressão governamental para que instituições privadas rodem um modelo de inteligência artificial tão poderoso e específico em sua infraestrutura interna gerou preocupações imediatas entre especialistas e executivos do setor financeiro. A principal hesitação reside no potencial de uso dual dessas ferramentas, uma vez que o mesmo recurso capaz de identificar e corrigir uma falha pode, se mal utilizado ou acessado por entes externos, servir como um roteiro detalhado para invasões profundas. Os bancos temem que a centralização de defesas em torno de um único arcabouço tecnológico possa criar um ponto único de falha ou permitir uma vigilância governamental excessiva sobre suas operações internas.

O debate técnico sobre o Claude Mythos também envolve a natureza do aprendizado de máquina aplicado à segurança. Como o modelo é capaz de aprender padrões de erros cometidos por programadores humanos, sua implantação em larga escala poderia acelerar drasticamente o ciclo de desenvolvimento de software seguro. Por outro lado, a Anthropic manteve o controle rigoroso sobre quem pode utilizar o modelo justamente para evitar que o conhecimento sobre brechas de segurança de dia zero, aquelas ainda desconhecidas pelos desenvolvedores originais, seja disseminado prematuramente.

A administração Trump tem defendido que o papel do Estado é garantir que essas tecnologias sejam integradas à infraestrutura crítica o mais rápido possível, removendo obstáculos burocráticos que poderiam atrasar a modernização da defesa digital. Essa postura reflete uma visão de mundo onde a liderança em inteligência artificial é tratada de forma semelhante à corrida armamentista, onde a velocidade de adoção do aprendizado profundo e de modelos generativos define quem detém a vantagem estratégica. Para as autoridades americanas, permitir que bancos operem com estruturas de defesa legadas é um risco inaceitável para a soberania econômica.

Os representantes das instituições financeiras presentes na reunião levantaram questões sobre a propriedade industrial e o sigilo dos dados processados pela inteligência artificial. Existe um temor latente de que o treinamento continuado destes modelos, ou o próprio processo de análise de vulnerabilidades, possa expor lógica de negócios proprietária ou informações sensíveis de clientes ao provedor da tecnologia ou ao próprio governo. A transparência sobre como o Claude Mythos processa os dados e quais informações são compartilhadas com a Anthropic ou com as agências reguladoras tornou-se o centro das negociações técnicas.

Apesar das resistências, diversos bancos de grande porte já iniciaram testes internos controlados com o modelo de inteligência artificial para avaliar seu desempenho em ambientes de isolamento. Esses ensaios buscam validar se a ferramenta realmente entrega a redução prometida no tempo de identificação de falhas sem introduzir novos riscos de estabilidade nos sistemas produtivos. O sucesso desses projetos piloto determinará se a implantação será expandida para toda a rede bancária americana, estabelecendo um novo padrão para o setor financeiro global.

A inteligência artificial generativa, tecnologia que fundamenta o Claude e seus concorrentes, está transformando a cibersegurança de uma atividade predominantemente reativa para uma natureza preditiva. Ao utilizar modelos que compreendem a semântica do código, as empresas podem agora simular cenários de ataque com uma fidelidade sem precedentes, corrigindo erros de lógica antes mesmo que o software seja disponibilizado para o público. O governo dos Estados Unidos acredita que essa mudança de paradigma é essencial para enfrentar a nova geração de ameaças cibernéticas que utilizam recursos automatizados.

O papel do departamento do Tesouro e de agências como a de Segurança de Infraestrutura e Cibersegurança foi ampliado para atuar como catalisador desta transformação tecnológica nos bancos. A administração federal argumenta que a cooperação entre o setor público e privado é a única forma de mitigar os riscos de colapsos sistêmicos causados por ataques em larga escala. No entanto, o equilíbrio entre a segurança nacional e a autonomia das empresas privadas permanece como um ponto de tensão constante, especialmente quando se trata de ferramentas que podem ser utilizadas para fins de vigilância ou controle governamental.

O desenrolar desta pressão governamental sobre Wall Street será acompanhado de perto por reguladores de outros países e por empresas de tecnologia em todo o mundo. A decisão de forçar a adoção de um modelo de inteligência artificial de código fechado para proteger o coração financeiro de uma nação marca um momento histórico na relação entre estado e inteligência artificial. Se a estratégia for bem-sucedida, poderá servir de modelo para outros setores críticos, como energia e telecomunicações, elevando o patamar da defesa cibernética através do aprendizado de máquina avançado.

Em última análise, a adoção do Claude Mythos pelos bancos sob influência direta do governo Trump representa uma aposta tecnológica de alto risco e alta recompensa. Enquanto o potencial para erradicar vulnerabilidades sistêmicas é genuíno e promissor, os desafios éticos, de privacidade e de segurança de dados exigirão uma governança rigorosa e transparente. O futuro da segurança bancária parece estar inequivocamente ligado à capacidade das máquinas de entenderem e corrigirem as falhas humanas de forma autônoma e acelerada.

PUBLICIDADE

Leitura recomendada

Comentários

Nenhum comentário ainda. Seja o primeiro a comentar!