Nos últimos meses, temos observado uma expansão preocupante das ameaças digitais impulsionadas por inteligência artificial desde ataques de ransomware e golpes de phishing ainda mais sofisticadas operações de espionagem cibernética. Hoje, vamos aprofundar em um ponto específico: como criminosos estão utilizando modelos de linguagem de larga escala (LLMs) para ampliar e automatizar seus ataques de forma sem precedentes.
A IA já deixou de ser um experimento no mundo da segurança digital. Ela está presente em sistemas de alerta, análise de falhas e estratégias de defesa automatizada. No entanto, os invasores também descobriram como explorá-la — e, da mesma forma em muitos casos, estão se movendo mais rápido que as equipes de proteção.
A ascensão dos LLMs para o crime
Ferramentas criadas ou adaptadas para fins ilícitos — como WormGPT, FraudGPT e DarkBERT — evidenciam o quanto as organizações criminosas estão se profissionalizando. Vendidas em fóruns da dark web, essas plataformas permitem:
- Lançar campanhas de phishing multilíngues impecáveis, sem erros gramaticais.
- Gerar malwares polimórficos capazes de burlar sistemas de detecção.
- Redigir e-mails de comprometimento empresarial (BEC) extremamente convincentes.
- Criar códigos e exploits até mesmo para quem não tem conhecimento técnico avançado.
Com isso, o cibercrime se torna mais acessível e escalável — não é mais necessário ter uma grande estrutura ou dominar técnicas sofisticadas para atacar.
Relatórios da Cato Networks revelam que versões recentes do WormGPT já são baseadas em modelos comerciais como Grok (xAI) e Mixtral (Mistral). Criminosos utilizam técnicas de jailbreak para contornar proteções e oferecem assinaturas por preços a partir de apenas € 60 por mês, transformando a IA em uma verdadeira “fábrica de ataques”.

Do talento à escala: uma nova era para o crime digital
Durante o Rapid7 Take Command Virtual Summit 2025, Shawnee Delaney — ex-agente de contrainteligência e CEO da Vaillance Group — resumiu bem a situação:
“A IA tirou o cibercrime das mãos de especialistas e o colocou em um novo patamar de escala. Ela coleta dados, perfila vítimas e executa ataques em uma velocidade impossível para qualquer humano.”
Casos reais reforçam isso. Um executivo da Ferrari foi quase enganado por um golpe de voz clonada, que imitava com precisão o CEO da empresa — a fraude só falhou quando o criminoso não soube improvisar.
De acordo com a Harvard Business Review, a IA reduziu em até 95% os custos de campanhas de phishing e engenharia social, abrindo espaço para mais ataques e menos barreiras de entrada.
Além do phishing: manipulação e caos informacional
Os LLMs não estão limitados a crimes financeiros. Bem como estão sendo empregados em operações de influência e desinformação. No entanto autoridades israelenses relataram, recentemente, o uso de mensagens SMS e alertas de voz falsos gerados por IA durante ataques com mísseis — igualmente atribuídos a grupos ligados ao Irã.
Isso revela um cenário ainda mais grave: a IA como arma para moldar percepções, gerar pânico e desestabilizar sociedades inteiras.
O perigo interno: a IA sombra
A ameaça não vem apenas de agentes externos. Apesar disso muitas organizações enfrentam riscos internos gerados pelo uso não autorizado de IA generativa, conhecido como “IA sombra”.
Entre os exemplos mais comuns estão:
- Compartilhamento de dados sensíveis em chatbots públicos.
- Confiança cega em respostas imprecisas ou “alucinações” da IA.
Mesmo que sem intenção maliciosa, entretanto essas práticas abrem brechas críticas de segurança.
A Gartner alerta:
“Até 2026, empresas que combinarem IA generativa com plataformas de segurança integradas reduzirão incidentes internos em até 40%.”

Como os defensores podem reagir
Líderes de segurança não precisam resolver tudo de uma vez — Por outro lado precisam entender como os LLMs mudam o jogo. Algumas medidas práticas incluem:
- Realizar testes com equipes vermelhas focadas em manipulação de IA.
- Estabelecer políticas claras de uso com treinamentos contínuos.
- Implementar controles e monitoramentos robustos.
- Integrar soluções de defesa baseadas em IA para detectar e responder mais rapidamente.
A Rapid7 já aplica essas práticas através do AI Attack Coverage, apesar disso módulo do Exposure Command lançado em junho de 2025 que detecta vetores de ataque alimentados por IA — muitas vezes invisíveis para as ferramentas tradicionais.
Conclusão: responsabilidade é o campo de batalha
Modelos de linguagem, por si só, não são bons nem ruins. Em contrapartida o impacto vem de como são utilizados.
Criminosos estão usando IA para automatizar, escalar e baratear seus ataques. Contudo para fazer frente a isso, os defensores precisam responder com governança sólida, visibilidade estratégica e cooperação.
O futuro da segurança digital não dependerá de quem tem a tecnologia mais avançada — e sim de quem a usa de forma mais responsável e inteligente.
