Como a China rouba a IA da Anthropic através de 24.000 contas falsas e 16 milhões de trocas

Adrien

março 1, 2026

découvrez comment la chine utilise 24 000 faux comptes et 16 millions d’échanges pour dérober l’intelligence artificielle d’anthropic, révélant une vaste opération de cyberespionnage.

Em um universo onde a inteligência artificial se tornou um recurso estratégico majoritário, a rivalidade tecnológica entre nações assume uma nova dimensão. Entre os episódios mais marcantes dessa guerra secreta está um escândalo revelado no início de 2026: a China estaria orquestrando uma operação sofisticada de ciberataque visando extrair ilegalmente as capacidades do modelo de IA Claude, desenvolvido pela startup americana Anthropic. Essa jogada mestra se baseia na criação de 24.000 contas falsas e um volume impressionante de 16 milhões de interações, que teriam servido para « destilar » a inteligência de Claude para fortalecer os próprios modelos chineses. O que parecia à primeira vista uma simples competição tecnológica, revela-se um caso de espionagem industrial em grande escala, levantando muitas questões sobre a cibersegurança no setor da inteligência artificial.

Esse caso, divulgado pela Anthropic em 23 de fevereiro, ilumina os imensos desafios ligados à proteção das tecnologias de IA avançadas, indispensáveis tanto no nível comercial quanto no plano da soberania nacional. Laboratórios chineses como DeepSeek, Moonshot AI e MiniMax teriam implementado campanhas massivas de extração de dados, utilizando redes complexas de contas falsas para consultar Claude de forma automatizada. Esse mecanismo é prova de uma tática redutoramente eficaz, explorando a destilação, uma técnica porém legítima em machine learning, mas aqui desviada para fins de espionagem e roubo de propriedade intelectual. A amplitude das trocas, sua sofisticação técnica e a rapidez de adaptação aos novos modelos revelam um sistema industrial bem ajustado, que perturba profundamente os paradigmas da cibersegurança no campo da inteligência artificial.

Os mecanismos detalhados por trás do roubo de dados da Anthropic pela China: uma operação industrial fora do comum

A operação revelada pela Anthropic se baseia em uma rede impressionante de 24.000 contas falsas criadas para submeter nada menos que 16 milhões de requisições ao Claude, o assistente IA de ponta da empresa americana. Por trás dessa mecânica esconde-se uma estratégia perfeitamente ajustada, explorada por três gigantes chineses da IA – DeepSeek, Moonshot AI e MiniMax – ativos na pesquisa e desenvolvimento de modelos concorrentes.

Para compreender melhor essa mecânica, é preciso primeiro interessar-se pela própria natureza dessas contas falsas. Cada conta desempenha o papel de um usuário fictício, permitindo enviar requisições direcionadas ao Claude sem despertar suspeitas. Essas contas são controladas por meio de redes de proxies sofisticadas, criando o que a Anthropic qualificou como « cluster hydra » – um conjunto de agrupamentos de contas que redirecionam o tráfego por diversos servidores em nuvem terceirizados. Uma configuração onde um único servidor proxy pode gerir simultaneamente vinte mil contas, o que destaca a escala industrial desse ciberataque.

O sistema também se baseia em uma técnica bem desenvolvida de evitamento de detecções, consistindo em misturar os envios de extração de dados com um tráfego de uso dito « normal ». Essa estratégia torna a identificação das tentativas ilegais mais difícil, ainda mais porque a repetitividade e a natureza específica das requisições podem ser mascaradas por interações aparentemente inocentes. Esse processo permite, portanto, que esses atores drenem efetivamente as capacidades do Claude, contribuindo assim para o desenvolvimento de suas próprias IAs por meio da « destilação » do conhecimento.

Essa exploração perdura em um ritmo sustentado e adapta-se imediatamente a cada atualização do modelo Claude. Por exemplo, assim que a Anthropic lançou uma nova versão, a MiniMax redirecionou quase metade de suas requisições para captar as melhorias e integrar essas novas funcionalidades em seus próprios produtos. Essa flexibilidade revela uma organização industrial, ao mesmo tempo ágil e poderosa, que torna a proteção de seus modelos um desafio crescente para as empresas inovadoras.

descubra como a china usa 24.000 contas falsas e 16 milhões de trocas para roubar a inteligência artificial desenvolvida pela anthropic, e os desafios desse ciberataque massivo.

A destilação em inteligência artificial: entre técnica legítima de treinamento e ferramenta desviada para espionagem industrial

A noção de destilação em inteligência artificial está no centro do debate sobre esse caso. Originalmente, a destilação é um método técnico usado no machine learning para criar modelos menores, mais eficientes e menos exigentes em recursos, a partir de modelos mais volumosos e performantes. Essa prática é comum em muitos laboratórios para criar versões simplificadas mantendo a qualidade das predições.

No entanto, no contexto desse roubo massivo de dados, a destilação torna-se um instrumento desviado a serviço de espionagem industrial. Extraindo as respostas de Claude por milhões, as entidades chinesas buscavam recriar modelos similares sem desenvolver a tecnologia do zero. Isso equivale a roubar um savoir-faire acumulado pela Anthropic ao longo dos anos, e pode acarretar riscos graves, especialmente em matéria de segurança nacional, quando essas tecnologias são integradas em sistemas militares, de vigilância ou espionagem.

Softwares de detecção, barreiras integradas, políticas de licença rigorosas são tantas camadas de proteção que a Anthropic implementou para combater essa ameaça. Porém, a empresa denuncia que essas proteções são contornadas metodicamente, graças às técnicas avançadas de gerenciamento das contas fraudulentas e à sofisticação das redes proxy. Essa exploração ilegal fragiliza não só a segurança dos dados, mas coloca em causa a visão ética que fundamenta o desenvolvimento dessa inteligência artificial.

O problema torna-se ainda mais delicado porque a destilação aplicada ilegalmente pode também despir os modelos de seus mecanismos de controle, tornando possível a violação dos filtros de segurança configurados para evitar abusos ou a disseminação de conteúdos inadequados. Essa degradação do modelo original pode alimentar sistemas menos transparentes e mais perigosos.

Os desafios regulatórios e éticos em torno da destilação não autorizada

A destilação não é ilegal em si, mas sua aplicação por atores estrangeiros sujeitos a restrições comerciais americanas a coloca numa linha vermelha. A Anthropic enfatiza que as atividades da DeepSeek, Moonshot e MiniMax violam claramente os termos de uso de suas APIs, assim como as regulações sobre exportação tecnológica. Essa violação pode ter graves consequências jurídicas e diplomáticas.

Além do simples roubo técnico, a destilação ilegal levanta a questão fundamental da soberania tecnológica. Quando as capacidades de um modelo como o Claude são copiadas ou exploradas ilegalmente, isso enfraquece a competitividade dos laboratórios americanos e representa um risco para a inovação global, favorecendo uma forma de espionagem industrial em que uma nação desvia tecnologias estrangeiras em grande escala para seus próprios interesses.

descubra como a china usa 24.000 contas falsas e 16 milhões de trocas para roubar a inteligência artificial desenvolvida pela anthropic, ilustrando os riscos de cibersegurança no setor tecnológico.

Os perfis e estratégias dos atores chineses envolvidos no roubo da inteligência artificial da Anthropic

Três nomes emergem deste caso: DeepSeek, Moonshot AI e MiniMax. Essas empresas chinesas se distinguem por perfis e estratégias particulares, mas perseguem um objetivo comum: apropriar-se das capacidades avançadas do modelo Claude.

DeepSeek parece focar em trocas de alto valor agregado envolvendo raciocínio e sistemas sofisticados de avaliação. Suas técnicas incluem a manipulação de prompts para contornar os mecanismos de censura integrados no Claude, especialmente sobre temas sensíveis politicamente. Esse targeting revela a vontade de adaptar os modelos obtidos a usos específicos, potencialmente em áreas ligadas à vigilância ou controle da informação.

Moonshot AI, por sua vez, privilegia os domínios do raciocínio agentivo, uso de ferramentas, programação e análise de dados. Com mais de 3,4 milhões de requisições, essa entidade também explora a visão computacional, indicando uma ambição de ampliar o alcance funcional dos modelos assim extraídos. Esses métodos indicam uma vontade de integrar capacidades avançadas, combinando um amplo espectro de competências algorítmicas necessárias para projetos complexos.

MiniMax conduz a campanha mais massiva, com mais de 13 milhões de trocas. Sua especialidade parece girar em torno da codificação e orquestração de agentes autônomos. A rapidez de sua adaptação às últimas versões do Claude demonstra uma organização perfeitamente sincronizada com as atualizações da Anthropic, sinal de uma infraestrutura confiável capaz de redirecionar instantaneamente seu tráfego. Esse grande peso incorpora plenamente a abordagem industrial na pilhagem de IA.

Empresa Número de trocas Domínios visados Objetivo principal
DeepSeek 150.000+ Raciocínio, evasão da censura, reformulação de requisições sensíveis Extrair a linha de pensamento e contornar filtragem
Moonshot AI 3.400.000+ Raciocínio agentivo, programação, análise de dados, visão computacional Reconstrução de capacidades avançadas
MiniMax 13.000.000+ Codificação, orquestração de agentes autônomos Assimilação rápida das novas versões do Claude

As consequências geopolíticas e econômicas da pilhagem massiva dos dados de IA

Esse tipo de operação de roubo de dados de inteligência artificial ultrapassa a mera concorrência comercial. Insere-se num quadro mais amplo de confronto geopolítico em que o domínio dessas tecnologias determina a posição das nações no tabuleiro mundial. A pilhagem industrial massiva do Claude por grupos chineses alimenta o receio de um desequilíbrio na cadeia de IA.

Os modelos de inteligência artificial representam hoje um capital estratégico tanto para a inovação econômica quanto para a segurança nacional. Se uma potência estrangeira consegue extrair e reciclar essas tecnologias sem desenvolvimento local, a dinâmica competitiva muda radicalmente. Isso gera um risco de alienação tecnológica, no qual a vantagem competitiva é perdida.

Em 2026, esse caso tensiona as relações sino-americanas, já fragilizadas por diversos litígios comerciais e tecnológicos. Ele ilustra uma nova forma de ciber-guerra invisível no mundo dos algoritmos, onde o dado e a capacidade de manipulá-lo se tornam armas. Isso obriga a repensar os tratados internacionais sobre cibersegurança e proteção da propriedade intelectual em domínios emergentes.

As estratégias de cibersegurança para combater as campanhas de contas falsas e extrações massivas de IA

Diante de ataques industriais de tal magnitude, a cibersegurança deve evoluir rapidamente. A Anthropic investiu no desenvolvimento de sistemas robustos capazes de detectar e bloquear tendências comportamentais anormais associadas às tentativas de destilação.

Essas medidas incluem classificadores sofisticados baseados na análise dos padrões de requisições, detecção da eliciação excessiva da cadeia de pensamento, bem como a vigilância dos clusters de contas que funcionam de modo coordenado. Essas ferramentas permitem identificar com maior precisão os grupos de contas falsas e limitar seu impacto.

Além disso, a verificação reforçada das contas educacionais, de pesquisa e startups revelou-se necessária, pois esses segmentos são frequentemente desviados para criação de acessos falsos legítimos. Essa vigilância aumentada é um elemento-chave para limitar a criação massiva de contas fraudulentas.

O compartilhamento de informações entre empresas de IA, provedores de serviços em nuvem e autoridades governamentais intensificou-se, criando uma espécie de frente comum para a proteção dos recursos críticos. No entanto, essa defesa coletiva também apresenta limites, especialmente diante da sofisticação crescente dos ataques e da velocidade de adaptação dos atores maliciosos.

  • Detecção comportamental baseada em inteligência artificial para identificar usos anormais.
  • Mecanismos de limitação das requisições por usuário para evitar abusos.
  • Reforço dos processos de validação em várias etapas durante a criação de contas.
  • Colaboração internacional para sinalização rápida dos incidentes de cibersegurança.
  • Inovação contínua nas técnicas de autenticação e vigilância de rede.

Impactos industriais e econômicos no mercado global de inteligência artificial

Os efeitos desse grande caso de espionagem industrial sobre o mercado global de inteligência artificial são numerosos. A confiança nos modelos americanos como o Claude pode sofrer devido aos riscos de roubo, levando alguns atores a adotarem estratégias mais fechadas ou restritivas quanto ao acesso às suas APIs. Isso poderia causar uma fragmentação crescente do ecossistema global de IA, com blocos tecnológicos distintos frequentemente isolados uns dos outros.

Do ponto de vista econômico, o roubo de dados e conhecimentos obriga as empresas inovadoras a reforçarem significativamente seus dispositivos de cibersegurança, o que representa um custo adicional considerável. A necessidade de proteger os investimentos em pesquisa e desenvolvimento torna-se uma prioridade estratégica, no mesmo nível do lançamento de novas ofertas.

Finalmente, a corrida armamentista tecnológica em IA pode acelerar, com tensões potenciais sobre materiais e competências necessárias para o desenvolvimento dos modelos mais avançados. A proteção jurídica das criações intelectuais e tecnológicas também se fortalece, ainda que os processos legais permaneçam longos e complexos para serem aplicados frente a atores transnacionais.

FAQ sobre o fenômeno do roubo massivo de dados de inteligência artificial e suas consequências

{“@context”:”https://schema.org”,”@type”:”FAQPage”,”mainEntity”:[{“@type”:”Question”,”name”:”Como a China pôde criar 24.000 contas falsas sem ser detectada?”,”acceptedAnswer”:{“@type”:”Answer”,”text”:”A criação massiva de contas falsas baseia-se na utilização de redes de proxies sofisticadas e na verificação insuficiente das contas, frequentemente desviando segmentos educacionais e startups. Esse sistema distribui o tráfego para mascarar a atividade maliciosa, tornando a detecção complexa.”}},{“@type”:”Question”,”name”:”O que é destilação em IA e por que pode ser problemática?”,”acceptedAnswer”:{“@type”:”Answer”,”text”:”A destilação é um método legítimo para criar modelos menores a partir de um modelo maior. No entanto, usada sem autorização, permite copiar ilegalmente as capacidades de um modelo, suprimindo suas restrições de segurança e ética, o que representa um risco importante.”}},{“@type”:”Question”,”name”:”Quais estratégias a Anthropic implementou para se proteger?”,”acceptedAnswer”:{“@type”:”Answer”,”text”:”A Anthropic utiliza classificadores inteligentes, detecção comportamental, vigilância aumentada dos grupos de contas e reforça a verificação dos usuários para limitar o impacto das contas falsas. A colaboração com provedores de nuvem e autoridades também permite compartilhar dados de ameaça.”}},{“@type”:”Question”,”name”:”Quais os impactos econômicos desse roubo industrial?”,”acceptedAnswer”:{“@type”:”Answer”,”text”:”O roubo impõe às empresas o reforço dos sistemas de cibersegurança, aumenta os custos relacionados à proteção das inovações e pode causar fragmentação do mercado global de IA, com barreiras maiores entre provedores.”}},{“@type”:”Question”,”name”:”Por que esse caso é uma questão geopolítica importante?”,”acceptedAnswer”:{“@type”:”Answer”,”text”:”O domínio das tecnologias de IA é um fator chave no jogo global das potências. O roubo massivo de dados faz parte de uma lógica geopolítica em que os benefícios tecnológicos podem fortalecer a posição estratégica de um país, impactando a segurança nacional e a competição econômica.”}}]}

Como a China pôde criar 24.000 contas falsas sem ser detectada?

A criação massiva de contas falsas baseia-se na utilização de redes de proxies sofisticadas e na verificação insuficiente das contas, frequentemente desviando segmentos educacionais e startups. Esse sistema distribui o tráfego para mascarar a atividade maliciosa, tornando a detecção complexa.

O que é destilação em IA e por que pode ser problemática?

A destilação é um método legítimo para criar modelos menores a partir de um modelo maior. No entanto, usada sem autorização, permite copiar ilegalmente as capacidades de um modelo, suprimindo suas restrições de segurança e ética, o que representa um risco importante.

Quais estratégias a Anthropic implementou para se proteger?

A Anthropic utiliza classificadores inteligentes, detecção comportamental, vigilância aumentada dos grupos de contas e reforça a verificação dos usuários para limitar o impacto das contas falsas. A colaboração com provedores de nuvem e autoridades também permite compartilhar dados de ameaça.

Quais os impactos econômicos desse roubo industrial?

O roubo impõe às empresas o reforço dos sistemas de cibersegurança, aumenta os custos relacionados à proteção das inovações e pode causar fragmentação do mercado global de IA, com barreiras maiores entre provedores.

Por que esse caso é uma questão geopolítica importante?

O domínio das tecnologias de IA é um fator chave no jogo global das potências. O roubo massivo de dados faz parte de uma lógica geopolítica em que os benefícios tecnológicos podem fortalecer a posição estratégica de um país, impactando a segurança nacional e a competição econômica.

Nos partenaires (2)

  • digrazia.fr

    Digrazia est un magazine en ligne dédié à l’art de vivre. Voyages inspirants, gastronomie authentique, décoration élégante, maison chaleureuse et jardin naturel : chaque article célèbre le beau, le bon et le durable pour enrichir le quotidien.

  • maxilots-brest.fr

    maxilots-brest est un magazine d’actualité en ligne qui couvre l’information essentielle, les faits marquants, les tendances et les sujets qui comptent. Notre objectif est de proposer une information claire, accessible et réactive, avec un regard indépendant sur l’actualité.