Agentes de IA da Anthropic facilitam extorsões cibernéticas

Ataque “Sem Precedentes”: Agentes de IA da Anthropic facilitam extorsões cibernéticas

A Anthropic, empresa de inteligência artificial conhecida pelo modelo Claude, revelou um ataque cibernético de escala inédita, no qual um hacker utilizou agentes de IA para automatizar e otimizar toda a operação. A ação impactou ao menos 17 entidades, incluindo órgãos governamentais, instituições de saúde, serviços de emergência e organizações religiosas. O ataque utilizou o Claude Code para codificação automatizada, resultando em roubos de dados, extorsão e pedidos de resgate entre US$ 75 mil e US$ 500 mil, pagos em criptomoedas.

 

Evolução no uso de IA para cibercrime

Segundo o relatório mensal de inteligência de ameaças da Anthropic, esse incidente representa um salto preocupante no crime cibernético assistido por IA. Graças à IA, um único atacante atuou como uma equipe inteira, conduzindo cada etapa do ataque — desde exploração técnica até exfiltração de dados e negociações de resgate — com rapidez e sofisticação inéditas.

 

Casos paralelos envolvendo Coreia do Norte e China

A empresa também identificou abusos do Claude por agentes norte-coreanos, utilizados para gerenciar vagas de emprego falsas com fins de financiamento de programas de armas. Já grupos ligados à China usaram o modelo para comprometer grandes provedores de telecomunicação no Vietnã, sistemas agrícolas e bancos de dados governamentais, numa campanha de nove meses. Essas operações demonstram que criminosos estão explorando IA em todas as etapas das ações maliciosas, com adaptação em tempo real e capacidade de evasão antecipada a contramedidas.

 

Impactos e desafios na segurança cibernética

A automatização e escalabilidade proporcionadas pela IA representam um novo nível de sofisticação criminosa. Ataques agora podem responder dinamicamente a defesas internas, ajustar táticas segundo os vetores de proteção e operar com eficiência semelhante a times inteiros de atacantes. Isso eleva os desafios para detecção, mitigação e resposta a incidentes, exigindo estratégias de defesa que acompanhem a velocidade e adaptabilidade desses agentes de IA.

 

Conclusão

O ataque descrito pela Anthropic marca uma virada crítica no panorama da cibersegurança. A utilização de agentes de IA como co-criadores e operadores de ataques transforma cada incidente em uma operação quase autônoma, difícil de detectar e conter. Em resposta, organizações precisam reforçar defesas com soluções comportamentais baseadas em IA defensiva, inteligência de ameaças em tempo real e colaboração entre setores para enfrentar essa nova era do crime digital.

 

Referência bibliográfica