O avanço da inteligência artificial está redefinindo os limites entre inovação e ameaça. Prova disso é o recente alerta de autoridades internacionais: a Coreia do Norte estaria usando IA e identidades falsas para infiltrar agentes em empresas globais, obtendo até US$ 1 bilhão em recursos destinados ao seu programa nuclear.
Identidade falsa é usada por candidato em seleção para trabalho remoto.
Uma rede global de espionagem digital
O esquema, descoberto por investigações do FBI e de painéis da ONU, revela uma rede altamente organizada. Usando perfis falsos no LinkedIn e fotos criadas por IA generativa, agentes norte-coreanos conseguem empregos remotos em companhias dos Estados Unidos, Europa, Arábia Saudita e Austrália. Depois de contratados, trabalham normalmente — escrevem códigos, participam de reuniões e entregam tarefas — sem levantar suspeitas entre gestores e colegas.
Trabalho remoto como arma financeira
Por trás dessa aparente normalidade, está um propósito estratégico: transformar o trabalho remoto em uma fonte de financiamento clandestino para o governo norte-coreano. Estima-se que parte dos salários desses “funcionários fantasmas” — que podem chegar a US$ 700 mil por ano — seja desviada diretamente para financiar o desenvolvimento de armas nucleares.
Mais preocupante ainda é a sofisticação crescente da fraude. Investigações apontam a existência de “fazendas de notebooks” em solo americano — locais onde computadores corporativos são mantidos ligados e acessados remotamente pelos agentes — além do uso de intermediários que recebem valores simbólicos para servir de fachada a esses “empregos invisíveis”.
Em busca de escala, o esquema também passou a terceirizar parte do trabalho para profissionais reais na Índia e no Paquistão, mascarando ainda mais a origem das operações. Grandes corporações, como a Nike, já admitiram ter sido enganadas por esse tipo de golpe.
O caso expõe uma vulnerabilidade profunda do mundo pós-pandemia: a confiança digital nas relações de trabalho remoto. Em um cenário onde entrevistas são feitas por vídeo e currículos são validados online, a linha entre o real e o artificial nunca foi tão tênue.
Empresas de tecnologia e segurança da informação precisam reforçar seus processos de verificação de identidade, adotar controles de compliance internacional e investir em monitoramento comportamental para detectar atividades suspeitas. Afinal, um simples erro de contratação pode não só comprometer dados corporativos, mas também financiar programas de armas de destruição em massa.
A lição é clara: a inteligência artificial é uma ferramenta poderosa — mas, sem ética e segurança, pode se tornar um dos instrumentos mais eficazes da geopolítica moderna.