Um novo estudo conduzido por pesquisadores da Universidade de Stanford e da Carnegie Mellon revelou algo que, até pouco tempo, parecia exagero: agentes de inteligência artificial já conseguem superar profissionais humanos de cibersegurança em testes reais de invasão.

Diferente de benchmarks artificiais, CTFs ou simulações controladas, o experimento foi realizado em uma rede corporativa real, com mais de 8 mil hosts ativos, múltiplas sub-redes e sistemas críticos em produção. O resultado expõe uma mudança profunda no equilíbrio entre ataque e defesa no mundo digital.

Representação de um humano trabalhando em conjunto com a inteligência artificial.

 

O estudo que muda o jogo da cibersegurança

O artigo científico “Comparing AI Agents to Cybersecurity Professionals in Real-World Penetration Testing” apresenta a primeira avaliação direta entre pentesters humanos experientes e agentes autônomos de IA, atuando sob as mesmas regras, no mesmo ambiente e com escopo real.

Participaram do estudo:

  • 10 profissionais humanos certificados, incluindo OSCP, OSWE e CRTO

  • 6 agentes de IA existentes no mercado acadêmico

  • Um novo framework chamado ARTEMIS, desenvolvido pelos próprios pesquisadores

Todos tiveram acesso controlado ao ambiente, respeitando políticas de disclosure, limites operacionais e monitoramento constante para evitar impactos reais.

O que é o ARTEMIS e por que ele se destacou

O ARTEMIS não é apenas um chatbot automatizado. Ele é um framework multiagente, projetado especificamente para operações ofensivas em larga escala. Sua arquitetura inclui:

  • Um agente supervisor responsável pela estratégia

  • Subagentes especializados criados dinamicamente

  • Execução paralela de múltiplas frentes de ataque

  • Triagem automática de vulnerabilidades para reduzir ruído

  • Capacidade de operar por longos períodos sem perda de contexto

Na prática, o ARTEMIS se comporta como uma equipe inteira de red team trabalhando ao mesmo tempo, algo impossível para humanos.

Resultados que chamam atenção

Os números falam por si:

  • O ARTEMIS ficou em segundo lugar geral, atrás de apenas um profissional humano

  • Descobriu mais vulnerabilidades válidas do que 9 dos 10 participantes

  • Identificou falhas críticas como:

    • Credenciais padrão em sistemas de gerenciamento

    • Acesso anônimo a diretórios LDAP

    • Execução remota de código

    • Compartilhamentos SMB inseguros

    • Serviços legados com falhas graves de criptografia

Além disso, os agentes de IA demonstraram algo especialmente perigoso: capacidade de exploração paralela, atacando múltiplos alvos ao mesmo tempo sem fadiga.

O fator custo muda tudo

Um dos pontos mais sensíveis do estudo é o custo operacional.

Enquanto um pentester humano custa, em média, mais de US$ 120 mil por ano, uma configuração do ARTEMIS operou por cerca de US$ 18 por hora, mantendo desempenho competitivo.

Isso abre um cenário preocupante:

  • Atacantes podem escalar ofensivas com baixo custo

  • Operações contínuas se tornam viáveis

  • A barreira financeira para ataques sofisticados cai drasticamente

Onde a IA ainda falha

Apesar dos resultados impressionantes, o estudo deixa claro que a IA ainda não é perfeita.

Os principais pontos fracos observados foram:

  • Maior taxa de falsos positivos

  • Dificuldade em interagir com interfaces gráficas

  • Falhas de interpretação em fluxos de autenticação web

  • Tendência a registrar vulnerabilidades menos críticas e seguir em frente

Curiosamente, essas mesmas limitações revelam algo importante: o julgamento humano ainda é insubstituível em contextos ambíguos.

O que isso significa para empresas e defensores

O estudo deixa uma mensagem clara para CISOs, DPOs e times de segurança:

  • Ferramentas defensivas precisam evoluir no mesmo ritmo

  • Pentests pontuais não são mais suficientes

  • Monitoramento contínuo se torna obrigatório

  • A linha entre ataque e defesa está cada vez mais automatizada

Agentes ofensivos baseados em IA não são mais uma ameaça teórica. Eles já funcionam, já exploram e já superam humanos em diversos cenários.

O risco real não é a IA sozinha

O maior alerta do estudo não é que a IA pode hackear sistemas. Isso já era esperado.

O verdadeiro risco é a combinação de autonomia, escala e baixo custo. Quando agentes inteligentes podem operar 24 horas por dia, sem descanso, aprendendo e se adaptando em ambientes reais, o impacto potencial é sistêmico.

Este estudo marca um divisor de águas na cibersegurança moderna. A IA deixou de ser apenas uma ferramenta de apoio e passou a atuar como agente ofensivo pleno, com desempenho comparável ou superior ao humano.

Para organizações que ainda tratam segurança como evento isolado, o recado é duro: o adversário já automatizou.

A pergunta agora não é se a IA será usada em ataques, mas quem estará preparado para se defender dela.

 

Malware
08 de dez. de 2025
Leaks
03 de dez. de 2025
Segurança da Informação
25 de nov. de 2025
Ataques Hackers
19 de nov. de 2025
Segurança da Informação
18 de nov. de 2025
Ataques Hackers
17 de nov. de 2025
Governança & Tecnologia
14 de nov. de 2025
Segurança da Informação
13 de nov. de 2025
Governança & Tecnologia
11 de nov. de 2025
Governança & Tecnologia
05 de nov. de 2025
Boas Práticas
04 de nov. de 2025
Malware
03 de nov. de 2025
Governança & Tecnologia
30 de out. de 2025
Ataques Hackers
29 de out. de 2025
Leaks
28 de out. de 2025
Boas Práticas
27 de out. de 2025
Ataques Hackers
23 de out. de 2025
Ataques Hackers
20 de out. de 2025
Ataques Hackers
17 de out. de 2025
Malware
16 de out. de 2025
Ataques Hackers
15 de out. de 2025
Golpes Digitais
10 de out. de 2025
Segurança da Informação
07 de out. de 2025
Malware
02 de out. de 2025
Segurança da Informação
30 de set. de 2025
Constituição de Cibersegurança
29 de set. de 2025
Segurança da Informação
26 de set. de 2025
Malware
19 de set. de 2025
Ataques Hackers
18 de set. de 2025
Constituição de Cibersegurança
15 de set. de 2025
Malware
11 de set. de 2025
Segurança da Informação
09 de set. de 2025
Produtividade
01 de set. de 2025
Leaks
29 de ago. de 2025
Boas Práticas
27 de ago. de 2025
Golpes Digitais
25 de ago. de 2025
Segurança da Informação
18 de ago. de 2025
Malware
11 de ago. de 2025
Golpes Digitais
07 de ago. de 2025
Segurança da Informação
04 de ago. de 2025
Malware
31 de jul. de 2025
Produtividade
28 de jul. de 2025
Golpes Digitais
24 de jul. de 2025
Malware
21 de jul. de 2025
Malware
17 de jul. de 2025
Ataques Hackers
10 de jul. de 2025
Boas Práticas
07 de jul. de 2025
Boas Práticas
03 de jul. de 2025
Produtividade
30 de jun. de 2025
Constituição de Cibersegurança
26 de jun. de 2025
Leaks
23 de jun. de 2025
Leaks
16 de jun. de 2025
Malware
12 de jun. de 2025
Constituição de Cibersegurança
05 de jun. de 2025
Ataques Hackers
02 de jun. de 2025
Produtividade
29 de mai. de 2025
Segurança da Informação
26 de mai. de 2025
Segurança da Informação
22 de mai. de 2025
Constituição de Cibersegurança
19 de mai. de 2025
Segurança da Informação
14 de mai. de 2025
Segurança da Informação
08 de mai. de 2025
Golpes Digitais
06 de mai. de 2025
Constituição de Cibersegurança
02 de mai. de 2025
Ataques Hackers
28 de abr. de 2025
Constituição de Cibersegurança
24 de abr. de 2025
Golpes Digitais
22 de abr. de 2025
Golpes Digitais
14 de abr. de 2025
Ataques Hackers
21 de fev. de 2025
Ataques Hackers
18 de fev. de 2025
Segurança da Informação
04 de fev. de 2025
Constituição de Cibersegurança
28 de jan. de 2025
Segurança da Informação
23 de jan. de 2025
Ataques Hackers
16 de jan. de 2025
Constituição de Cibersegurança
14 de jan. de 2025
Constituição de Cibersegurança
19 de dez. de 2024
Segurança da Informação
17 de dez. de 2024
Segurança da Informação
10 de dez. de 2024
Malware
06 de dez. de 2024
Constituição de Cibersegurança
03 de dez. de 2024
Boas Práticas
26 de nov. de 2024
Boas Práticas
19 de nov. de 2024
Segurança da Informação
12 de nov. de 2024
Boas Práticas
05 de nov. de 2024
Segurança da Informação
31 de out. de 2024
Segurança da Informação
29 de out. de 2024
Constituição de Cibersegurança
10 de out. de 2024
Segurança da Informação
03 de out. de 2024