PUBLICIDADE

Autoridades financeiras dos EUA alertam bancos sobre riscos da Anthropic

11/04/2026
7 visualizações
6 min de leitura
Imagem principal do post

O secretário do Tesouro dos Estados Unidos, Scott Bessent, e o presidente do Federal Reserve, Jerome Powell, convocaram uma reunião emergencial com presidentes-executivos de grandes bancos para discutir os perigos sistêmicos de um novo modelo de inteligência artificial. O foco do alerta é o Claude Mythos, uma versão específica desenvolvida pela Anthropic, empresa de inteligência artificial criada por ex-membros da OpenAI. Este novo sistema demonstrou uma capacidade sem precedentes de identificar vulnerabilidades de cibersegurança em diversos tipos de infraestrutura tecnológica crítica.

A intervenção direta das duas maiores autoridades financeiras da maior economia do mundo sinaliza a gravidade do problema para o setor bancário global. Participaram da conversa líderes das principais instituições financeiras, que foram informados sobre a possibilidade de o modelo ser utilizado para descobrir brechas em sistemas operacionais amplamente utilizados. O encontro reflete uma mudança na percepção governamental sobre o aprendizado de máquina, que deixa de ser visto apenas como uma ferramenta de produtividade para ser encarado como um risco de segurança digital.

O Claude Mythos foi projetado para atuar no refinamento de códigos de programação, mas acabou excedendo as expectativas iniciais de seus desenvolvedores durante testes internos. A Anthropic, que é a empresa responsável pela família de modelos Claude, percebeu que a variante Mythos conseguia mapear vetores de ataque em sistemas de software de maneira autônoma. Essa funcionalidade específica representou um avanço técnico significativo que, se mal utilizado, poderia comprometer a estabilidade do sistema financeiro internacional e das redes de computadores corporativas.

PUBLICIDADE

Durante o desenvolvimento, a ferramenta demonstrou eficácia na detecção de falhas reais e até então desconhecidas em grandes plataformas de tecnologia. Essas falhas, conhecidas no jargão técnico como vulnerabilidades de dia zero, são brechas que o fabricante do software ainda não teve a oportunidade de corrigir. A existência de um modelo de linguagem capaz de localizar essas brechas em escala industrial mudou drasticamente a postura de segurança da Anthropic em relação ao lançamento do produto no mercado.

Diante das descobertas, a Anthropic decidiu interromper a liberação ampla do Claude Mythos para o público geral e para clientes corporativos de diversos setores. A empresa optou por restringir o acesso ao modelo após constatar que o potencial de uso malicioso superava os benefícios imediatos da ferramenta de auditoria de código. Essa decisão de priorizar a segurança em detrimento da expansão comercial tem sido uma característica marcante da diretoria da companhia desde sua fundação como uma alternativa focada em alinhamento de inteligência artificial.

O secretário Scott Bessent enfatizou aos banqueiros que o setor financeiro é particularmente vulnerável a ataques orquestrados por inteligência artificial devido à sua dependência de sistemas legados. Muitos desses sistemas, embora fundamentais para o processamento de transações diárias, não foram originalmente construídos para suportar escrutínios automatizados de alto desempenho. A preocupação é que o Claude Mythos possa facilitar a criação de exploits, que são pedaços de código usados para tirar proveito de uma vulnerabilidade, de forma muito mais rápida do que as equipes humanas conseguem responder.

Já o presidente do Federal Reserve, Jerome Powell, destacou o conceito de risco de modelo, um termo técnico usado no setor bancário para descrever o potencial de perdas causadas pelo uso incorreto de modelos de decisão. Neste caso, o risco não se limita a falhas internas do banco, mas ao ambiente externo onde modelos de linguagem poderosos podem ser voltados contra a integridade das instituições. Powell defendeu que a vigilância sobre os fornecedores de inteligência artificial deve ser tão rigorosa quanto a aplicada aos sistemas financeiros tradicionais.

As autoridades também discutiram a necessidade de novos protocolos de resposta a incidentes que incluam defesas reforçadas por inteligência artificial. Se um modelo como o Claude Mythos pode ser usado para atacar, as instituições financeiras precisam utilizar estruturas tecnológicas equivalentes para proteger seu arcabouço digital. A corrida armamentista no campo da cibersegurança agora envolve o uso de aprendizado profundo para identificar e neutralizar tentativas de intrusão antes que elas se tornem crises sistêmicas.

A Anthropic informou que está trabalhando em estreita colaboração com órgãos governamentais e especialistas em segurança para garantir que versões futuras do modelo sejam mais seguras. A empresa de inteligência artificial explicou que o Claude Mythos servirá como uma plataforma de pesquisa interna para entender como modelos generativos interagem com código de software. O objetivo é desenvolver mecanismos de proteção conhecidos como guardrails, que impeçam a inteligência artificial de fornecer instruções prejudiciais ou de executar varreduras de rede não autorizadas.

Para o mercado financeiro, o alerta serve como um lembrete da velocidade com que a inteligência artificial está evoluindo e transformando o cenário de ameaças. A capacidade de bancos como o JPMorgan Chase e o Bank of America de protegerem os dados de seus clientes depende agora de uma compreensão profunda das capacidades dos modelos de linguagem. O episódio reafirma a importância de fóruns de discussão entre o governo federal e a iniciativa privada para antecipar problemas que ultrapassam as fronteiras das empresas individuais.

A reação dos presidentes-executivos foi de cautela, com muitos prometendo revisar suas estratégias de implantação de inteligência artificial no curto prazo. Existe um consenso crescente de que a adoção dessas tecnologias deve ser acompanhada por auditorias rigorosas e por uma governança que priorize a resiliência operacional. O caso do Claude Mythos ilustra que a transparência por parte das empresas criadoras de inteligência artificial é essencial para manter a confiança do mercado global.

O impacto dessa movimentação deve ser sentido em todo o ecossistema de tecnologia, incentivando outras fabricantes de modelos de linguagem a adotarem posturas mais defensivas. Outras empresas importantes do setor, como a Microsoft e o Google, também enfrentam desafios semelhantes ao equilibrarem o desempenho de seus sistemas com a segurança pública. A tendência é que a regulação sobre o desenvolvimento de modelos de inteligência artificial de alta capacidade se torne mais rígida nos próximos anos, refletindo as preocupações expressas por Bessent e Powell.

Este episódio também coloca em evidência o papel crucial dos processadores de inteligência artificial fornecidos por empresas como a NVIDIA, que permitem o processamento de modelos complexos como o da Anthropic. À medida que o poder computacional aumenta, a sofisticação das ferramentas de segurança precisa acompanhar esse crescimento para evitar catástrofes cibernéticas. O equilíbrio entre inovação tecnológica e segurança nacional permanece como o principal desafio para os formuladores de políticas na era da inteligência artificial generativa.

Ao final, o setor financeiro aguarda diretrizes mais claras sobre como integrar tecnologias de aprendizado de máquina sem expor suas infraestruturas a riscos inaceitáveis. A suspensão do Claude Mythos é vista por analistas como um sinal de maturidade da indústria, que reconhece que nem todo avanço técnico deve ser disponibilizado imediatamente. O diálogo permanente entre autoridades reguladoras e gigantes da tecnologia será determinante para garantir que a inteligência artificial continue sendo uma força de evolução e não um elemento de desestabilização global.

PUBLICIDADE

Leitura recomendada

Comentários

Nenhum comentário ainda. Seja o primeiro a comentar!