Quando a IA empodera golpistas — até especialistas são enganados
Conforme relatado pelo site O Antagonista, golpistas estão usando inteligência artificial para enganar pessoas altamente preparadas. Técnicas como deepfakes e chatbots treinados com IA agora permitem fraudar até mesmo especialistas online, ampliando o alcance e sofisticação dos golpes.
Deepfakes e bots: armas que imitam confiança e autoridade
Esses criminosos empregam modelos generativos para criar vídeos e vozes artificiais de alta fidelidade, imitando familiares ou profissionais conhecidos da vítima. O resultado é um golpe altamente convincente, onde o uso da IA reduz drasticamente a percepção de risco e desperta uma reação emocional imediata, mesmo entre quem julga estar imune.
Organizações criminosas utilizam essas técnicas para clonar vozes e rostos com dados públicos, produzindo chamadas de sequestro falso, extorsão emocional ou até vídeos motivacionais falsos com figuras de autoridade. Essas táticas já se expandiram para fraudar executivos, jornalistas e pessoas com alto nível de conhecimento técnico.
Furto de credibilidade: IA automatiza spear phishing
Pesquisas publicadas pela Malwarebytes mostram que ferramentas de IA facilitam a criação de campanhas de spear phishing altamente eficazes. Modelos como GPT‑4o e Claude 3.5 identificam vulnerabilidades online junto ao alvo e geram e-mails personalizados com probabilidade de click-through acima de 50% — muito superior ao phishing tradicional.
Esses e-mails são reproduzidos em escala massiva, com poucas despesas e pouco trabalho manual, tornando golpes sofisticados acessíveis a atacantes menos especializados tecnicamente. Os resultados são alarmantes: eficácia comparável à de especialistas humanos, mas com custos substancialmente menores.
Por que o uso da IA revoluciona os golpes online
A combinação de automação e personalização em massa transformou o cenário digital. Deepfakes, bots e mensagens inteligentes permitem que os criminosos alcancem alvos específicos — desde altos executivos até figuras públicas — com conteúdo que imita credibilidade e autoridade.
Além disso, a amplificação por redes sociais ou sistemas automatizados potencializa a propagação dos ataques, enquanto os usuários, acreditando estar protegidos, se tornam mais vulneráveis aos comandos gerados em tempo real por IA.
Medidas essenciais de defesa contra golpes com IA
-
Adotar autenticação multifator resistente a deepfakes (não baseada só em voz).
-
Validar chamadas via outro canal (fixo ou presencial) antes de ações de urgência.
-
Implementar filtros antiphishing com validação de conteúdo personalizado.
-
Treinar equipes para identificar deepfakes e sinais de IA manipulação.
-
Desenvolver processos de resposta rápida que envolvam detecção, isolamento e verificação humana.
Conclusão
O avanço da inteligência artificial não beneficia apenas atividades positivas — golpistas estão usando essas mesmas ferramentas para criar golpes altamente realistas, atingindo até mesmo profissionais experientes. A combinação de fake voices, deepfake visuals e phishing automatizado representa uma ameaça séria à credibilidade digital.
Para enfrentar essa nova realidade, a estratégia não pode se apoiar apenas em tecnologia reativa. É necessário cultivar cultura de segurança robusta, vigilância humana constante e políticas que priorizem a verificação consciente antes da ação. Em um mundo em que a IA amplifica a persuasão, a cibersegurança deve elevar o nível de alerta.
Referências Bibliográficas:
-
O Antagonista. IA agora ajuda golpistas a enganar até experts online. Disponível em: https://oantagonista.com.br/brasil/ia-agora-ajuda-golpistas-a-enganar-ate-experts-online/
-
Pieter Arntz. AI‑supported spear phishing fools more than 50% of targets. Malwarebytes (7 jan. 2025). Disponível em: https://www.malwarebytes.com/pt-br/blog/cybercrime/2025/01/ai-supported-spear-phishing-fools-more-than-50-of-targets








