Anthropic – A startup de IA confirmou recentemente à CNBC que parte do código-fonte interno do Claude Code foi publicada no repositório npm durante uma atualização de versão, escancarando detalhes estratégicos da plataforma sem comprometer dados de clientes.
- Em resumo: 512 mil linhas de TypeScript ficaram visíveis e já somam mais de 26 milhões de visualizações no X.
Erro humano que virou vitrine pública
O vazamento veio à tona quando Chaofan Shou, estagiário do Solayer Lab, identificou um arquivo “.map” gerado na compilação do software. O documento revelava APIs internas, lógica de contagem de tokens e mensagens de espera do assistente, informações que podem acelerar engenharia reversa por rivais ou agentes maliciosos. Uma análise da Wired destaca como deslizes desse tipo colocam em xeque o discurso de segurança das big techs de IA.
“O arquivo expôs cerca de 512 mil linhas de TypeScript do Claude Code versão 2.1.88, destinado apenas a depuração de desenvolvedores.”
Pressão extra na corrida bilionária de IA
O incidente chega dias após outro vazamento que mencionava o inédito Claude Mythos, reforçando dúvidas sobre os controles internos da empresa. A exposição também ocorre em meio ao aporte de até US$ 4 bilhões da Amazon e à participação de US$ 300 milhões da Google na Anthropic — verbas que exigem resultados rápidos e, sobretudo, confiança do mercado.
Para analistas, abrir a arquitetura do produto pode facilitar exploits ou clones, além de afetar diretamente o E-E-A-T da marca nos mecanismos de busca. Empresas como OpenAI e Google DeepMind, por exemplo, blindam rigidamente seus repositórios e reforçam auditorias de security by design para evitar repercussões semelhantes.
O que você acha? Vazamentos repetidos podem minar a credibilidade de uma promessa de “IA segura”? Para mais análises sobre inteligência artificial, acesse nossa editoria especializada.
Crédito da imagem: Divulgação / Anthropic