top of page

A China criou 24 mil contas falsas para roubar a IA americana — e ninguém percebeu por meses

Imagina que você tem um produto que levou anos e bilhões de dólares para construir. Aí você descobre que um concorrente abriu 24 mil contas falsas no seu sistema, fez 16 milhões de interações com ele, e usou tudo isso para treinar o modelo próprio deles. Tudo de graça. Tudo sem você saber.


Isso não é ficção científica. É exatamente o que aconteceu com a Anthropic — empresa por trás do modelo de IA Claude — e foi a própria empresa que revelou tudo em um relatório oficial publicado no dia 23 de fevereiro de 2026. Os acusados: DeepSeek, Moonshot AI e MiniMax, três laboratórios de IA chineses.


O que é "distilação" e por que isso importa tanto

Distilação é uma técnica legítima no mundo da IA. Todo laboratório usa: você pega um modelo grande e caro, faz ele gerar respostas para milhares de perguntas, e usa essas respostas para treinar um modelo menor e mais barato. É como copiar o caderno do melhor aluno da sala — mas quando você usa o caderno do seu próprio aluno, tudo bem.


O problema é quando você entra na escola do seu concorrente com 24 mil identidades falsas e copia o caderno dele 16 milhões de vezes. Aí deixa de ser técnica e vira roubo.


E é exatamente isso que a Anthropic diz ter descoberto. Segundo o relatório oficial da empresa (disponível em anthropic.com/news), as três operações seguiram um roteiro parecido: contas fraudulentas, serviços de proxy para mascarar a origem, e prompts cuidadosamente desenhados para extrair as capacidades mais valiosas do Claude — raciocínio agêntico, uso de ferramentas e programação.


Os números que deixam qualquer executivo acordado de madrugada

Olha só o tamanho de cada operação, porque os números são absurdos.


A DeepSeek — aquele modelo que sacudiu o Vale do Silício no começo de 2025 quando mostrou que dava pra construir IA de ponta por uma fração do custo americano — fez mais de 150 mil trocas com o Claude. O foco? Raciocínio lógico e, detalhe interessante, criar versões "seguras" de respostas politicamente sensíveis. Sabe, aquelas perguntas sobre dissidentes e líderes do Partido que o modelo oficial não pode responder. (Produtivo, né?)


A Moonshot AI foi mais longe: mais de 3,4 milhões de trocas, com foco em agentes de IA e visão computacional. E a MiniMax levou o troféu: 13 milhões de interações — e a Anthropic os pegou em flagrante. Quando a empresa lançou um modelo novo, a MiniMax pivotou em menos de 24 horas e redirecionou quase metade do tráfego para extrair capacidades do modelo mais recente.


Total: 16 milhões de interações. Pela conta da Anthropic, isso foi feito via "hydra cluster" — redes de mais de 20 mil contas fraudulentas simultâneas que misturavam tráfego de extração com uso legítimo para dificultar a detecção. Engenharia de verdade, usada para o lado errado.


O que está por trás disso — e o que ninguém está falando

A narrativa fácil é: "empresa americana acusa chineses de roubar IA". Mas tem algo mais sutil e mais importante acontecendo aqui.


Quando o DeepSeek apareceu no início de 2025 com um modelo que quase igualava os americanos por uma fração do custo, todo mundo ficou impressionado. Parecia que a China havia descoberto alguma mágica de eficiência. Bem, agora a Anthropic está dizendo que parte desse "milagre" foi construído em cima de capacidades extraídas ilicitamente de modelos americanos.


Isso importa por dois motivos que vão além da geopolítica.


Primeiro: segurança. A Anthropic gasta recursos enormes para garantir que o Claude não ajude a criar armas biológicas, não facilite ataques cibernéticos, não sirva para vigilância em massa. Quando um laboratório extrai capacidades via distilação ilícita, essas salvaguardas desaparecem. O modelo derivado sabe fazer as coisas perigosas, mas sem os freios. É como copiar um carro de corrida sem copiar o sistema de freios.


Segundo: o debate sobre chips. O governo americano tem aplicado controles de exportação de semicondutores avançados exatamente para limitar o desenvolvimento de IA na China. A Anthropic está apontando que esses controles têm uma brecha enorme: se você consegue extrair as capacidades de um modelo americano, não precisa tanto dos chips para treinar do zero. A distilação se torna um atalho que contorna anos de restrições.


O que as empresas brasileiras deveriam aprender com isso

Direto ao ponto: se você tem um produto de IA no Brasil — seja um modelo próprio, um agente, um sistema de recomendação — precisa começar a pensar em proteção de ativos de IA como pensa em propriedade intelectual convencional.


A maioria das empresas brasileiras ainda trata API como coisa de TI. Não é. É acesso à alma do seu produto. Quando você abre seu modelo via API sem controles adequados de uso, sem monitoramento de padrões anormais, sem limites inteligentes por comportamento — você está deixando a porta aberta.


E tem mais: o caso da Anthropic mostra algo que acho que pouca gente percebe. A corrida de IA não é só sobre quem treina o modelo mais poderoso. É sobre quem controla o conhecimento acumulado dentro desses modelos. Isso é o novo petróleo — e da mesma forma que você não deixa ninguém entrar na sua refinaria com um balde, não dá pra deixar seu modelo ser sugado por 16 milhões de interações fraudulentas.


Tenho defendido isso nas minhas palestras há um tempo: o maior erro que uma empresa pode cometer nesse momento é construir um ativo de IA sem pensar em como protegê-lo. Não é paranoia. É estratégia básica de negócios numa era em que o ativo mais valioso é intangível e copiável — se você não colocar o cadeado certo.


A pergunta que fica não é se isso vai acontecer com outras empresas. É quando — e se elas vão perceber antes ou depois de perder o que levaram anos pra construir.


Se você quer entender como sua empresa pode navegar esse cenário — usando IA como vantagem estratégica sem virar combustível para o crescimento de outra pessoa — é exatamente esse tipo de conversa que levo para executivos e lideranças no Brasil inteiro. Veja mais em gustavocaetano.com.

Comentários

Avaliado com 0 de 5 estrelas.
Ainda sem avaliações

Adicione uma avaliação

© 2025 by Gustavo Caetano

bottom of page