Resumo / Pontos-chave
Sua Fatura de IA Aumentou Repentinamente em 40%
Usuários do Claude Code têm experimentado uma rápida exaustão de seus limites de uso, muitas vezes sem alterar seus hábitos de codificação ou a complexidade dos prompts. Muitos relatam atingir seus limites de assinatura 40% mais rápido do que apenas semanas antes, gerando frustração generalizada. Este aumento inesperado e significativo no consumo rapidamente levantou alarmes nas comunidades de desenvolvedores, provocando pedidos de transparência da Anthropic.
Embora a Anthropic tenha reconhecido que os usuários estavam atingindo os limites mais rápido do que o esperado, a comunidade lançou sua própria investigação aprofundada. Desenvolvedores capturaram meticulosamente requisições de API brutas usando um proxy HTTP, revelando uma discrepância clara e quantificável. A investigação descobriu um salto direto de 40% nos tokens por requisição ao comparar as versões 2.1.98 e 2.1.100 do Claude Code. Esta não foi uma flutuação menor, mas um aumento dramático e mensurável que impacta cada interação.
Na versão 2.1.98, uma requisição de linha de base típica consumia aproximadamente 50.000 tokens. No entanto, após a atualização para a versão 2.1.100, o servidor começou a cobrar por 20.000 tokens adicionais para a *exatamente a mesma operação do lado do cliente*. Isso ocorreu apesar de o cliente enviar menos bytes, apontando inequivocamente para uma alteração do lado do servidor. Crucialmente, esses tokens adicionados são totalmente invisíveis na visualização `/context` da CLI, tornando-os indetectáveis e inexplicáveis para o usuário.
Este custo oculto se traduz diretamente em usuários pagando substancialmente mais pela mesma saída, muitas vezes transformando uma requisição de 10 centavos em uma cobrança de $2 instantaneamente. O problema não é o código do usuário se tornando mais "ávido por tokens"; em vez disso, a infraestrutura da Anthropic está cobrando silenciosamente por tokens que nunca se originaram da entrada explícita do cliente. Isso levanta uma questão crítica: de onde vêm esses tokens misteriosos, e por que estão sendo adicionados à fatura de cada usuário sem divulgação ou controle?
O Imposto Invisível de Tokens
Uma porção significativa do recente aumento de tokens do Claude Code se origina do que a comunidade chama de imposto invisível de tokens. Essa cobrança oculta deriva de "cache creation input tokens", uma categoria de faturamento que permanece completamente opaca para os usuários. Embora a Anthropic cobre por esses tokens, eles estão visivelmente ausentes da visualização `/context` da CLI, dando aos usuários uma impressão perigosamente falsa de seu consumo real.
Desenvolvedores capturaram requisições de API brutas, revelando um contraste acentuado entre as versões do Claude. Na versão 2.1.98, uma requisição de linha de base custava cerca de 50.000 tokens. Mas a versão 2.1.100 viu esse salto de 20.000 tokens – um aumento de 40% por requisição – mesmo quando os clientes enviaram menos bytes. Esse aumento substancial simplesmente não aparece na auditoria `/context`, tornando impossível para os usuários rastrear seus gastos de forma eficaz.
Como a Anthropic não divulgou uma análise post-mortem técnica, os desenvolvedores fizeram engenharia reversa da CLI para descobrir a causa raiz. Uma teoria principal aponta para uma expansão massiva do registro de ferramentas do sistema do Claude. Para tornar o Claude melhor no uso de ferramentas MCP e no gerenciamento de enxames complexos, a Anthropic provavelmente incorporou uma camada pesada de instruções e esquemas. Este extenso manual de instruções oculto agora acompanha cada requisição.
Imagine pagar pelo peso total de um livro de receitas complexo cada vez que você compra um único ingrediente na loja. É precisamente isso que acontece com esses tokens invisíveis. Mesmo que os usuários não aproveitem ativamente esses novos recursos ou ferramentas complexas, eles ainda arcam com o ônus dos tokens para a infraestrutura expandida necessária para suportá-los, queimando silenciosamente seu dinheiro a cada interação.
Bug #1: A Impressão Digital de Cache Danificada
Claude Code projetou seu mecanismo de cache para ser uma pedra angular da eficiência de custos. Os usuários esperavam que o sistema armazenasse inteligentemente a maior parte do contexto de seus projetos, muitas vezes até 90% da base de código, particularmente o conteúdo dentro de `Claude.md` e outros arquivos estáveis. Esta estratégia visava cobrar apenas por código recém-introduzido ou modificações específicas, tornando o desenvolvimento iterativo com Claude economicamente viável. A promessa era clara: pague pela diferença, não pelo todo.
No entanto, um defeito crítico surgiu em lançamentos específicos do binário autônomo do Claude, minando fundamentalmente este recurso de economia de custos. Este bug faz com que o binário danifique a impressão digital do cache, um identificador único destinado a confirmar a integridade e identidade dos dados de projeto em cache. Em vez de reconhecer o contexto de projeto existente, a API interpreta erroneamente cada interação subsequente como um envio de projeto inteiramente novo, forçando um reprocessamento completo.
As repercussões financeiras deste único bug são impressionantes. Uma solicitação rotineira, talvez uma consulta menor contra uma base de código estabelecida que deveria custar meros centavos — cerca de 10 centavos — escala instantaneamente. A re-ingestão forçada da API de todo o contexto do projeto pode transformar essa operação nominal de 10 centavos em uma solicitação de $2, representando um aumento de preço de 20x. Essa sobretaxa invisível contribui diretamente para que os usuários atinjam seus limites de uso muito mais rápido do que o previsto.
Aprofundando-se no problema, desenvolvedores da comunidade identificaram uma falha particular de cache como um problema dentro de um fork personalizado do runtime Bun empregado pelo binário autônomo do Claude Code. Este runtime especializado, sob certas condições, realiza uma substituição de string errônea. Especificamente, se o histórico de chat contiver qualquer conteúdo relacionado a faturamento, essa substituição pode corromper o prefixo do cache, tornando o sistema incapaz de identificar informações previamente processadas. Isso força o projeto inteiro a ser reavaliado do zero a cada interação. Para discussões técnicas adicionais e relatórios de usuários, consulte o diálogo em andamento: CC v2.1.100+ inflates cache_creation by ~20K tokens vs v2.1.98 — same payload, server-side · Issue #46917 · anthropics/claude-code - GitHub.
Outra falha significativa relacionada ao cache agrava ainda mais o problema. Ativar o comando `--resume` ou `--continue`, destinado a retomar conversas anteriores de forma contínua, inadvertidamente quebra o cache para todo o histórico da conversa. Isso ocorre na primeira solicitação retomada, desencadeando um custo substancial e único de token, pois Claude re-ingere todo o contexto anterior. Tais cobranças ocultas contradizem a expectativa de interação contínua e eficiente.
Bug #2: O Alto Custo da Retomada
O bug anterior, que danificou as impressões digitais do cache, não é o único culpado pelo comportamento de Claude que consome muitos tokens. Uma segunda falha, igualmente insidiosa, visa especificamente usuários que tentam continuar de onde pararam. Este problema distinto gira em torno do comando `--resume` ou `--continue`, um recurso aparentemente inócuo projetado para a continuação ininterrupta do fluxo de trabalho e preservação do contexto.
Empregar `--resume` aciona uma penalidade significativa e imediata. Na primeira solicitação após retomar uma conversa, Claude Code inexplicavelmente quebra o cache de *toda* a história da conversa anterior. Em vez de aproveitar inteligentemente o cache de projeto de 90%, que deveria armazenar seu conteúdo `Claude.md` e interações anteriores, o sistema reprocessa cada interação do zero.
Essa falha em utilizar o mecanismo de cache pretendido se traduz diretamente em um custo massivo e único de tokens. Desenvolvedores, esperando pagar apenas por sua nova entrada, são, em vez disso, cobrados pelo contexto completo e acumulado de toda a sua sessão. Esse gasto inesperado pode consumir rapidamente uma parte substancial da cota mensal de um usuário, deixando-o perplexo com o aumento repentino no uso e o rápido esgotamento de sua permissão.
Imagine uma longa sessão de codificação, pausada e depois retomada. O comando `--resume`, destinado a economizar tempo e tokens, em vez disso, inicia um reprocessamento completo de tudo o que veio antes. Esse impacto único pode ser desproporcionalmente grande, transformando uma simples consulta de acompanhamento em uma operação cara. É uma surpresa custosa que impacta diretamente o valor percebido dos recursos de desenvolvimento contínuo do Claude Code.
Combinados com o problema da impressão digital do cache corrompida e o imposto invisível de tokens do registro expandido de ferramentas do sistema, esses bugs criam uma tempestade perfeita. Cada falha inflaciona independentemente o consumo de tokens, mas seu efeito cumulativo transforma sessões de codificação rotineiras em um rápido esgotamento de recursos. Claude Code está silenciosamente queimando seu dinheiro, tornando o desenvolvimento contínuo uma proposta cada vez mais cara, e deixando os usuários frustrados com a cobrança imprevisível.
A Confissão Acidental da Anthropic
Um evento crucial em 31 de março de 2026 forneceu uma visão crítica sobre o crescente consumo de tokens do Claude. Uma inclusão acidental em um pacote npm expôs um source map JavaScript de 59,8 MB, revelando impressionantes 500.000 linhas do funcionamento interno do Claude Code. Essa divulgação não intencional tornou-se uma confissão acidental, expondo a arquitetura subjacente que contribui para as contas inflacionadas dos usuários.
Desenvolvedores descobriram o arquivo massivo dentro da versão 2.1 do binário do Claude Code. Este lançamento não intencional, não um hack direcionado, ofereceu um olhar sem precedentes por trás da cortina da Anthropic. O volume puro de código exposto imediatamente despertou o interesse da comunidade, gerando intenso escrutínio.
A Anthropic rapidamente reconheceu o incidente, emitindo um comunicado oficial classificando-o como "erro humano, não uma violação de segurança". Embora a Anthropic tenha minimizado a gravidade de uma perspectiva de segurança, a comunidade compreendeu suas profundas implicações para a transparência e as práticas de cobrança. Este vazamento acidental ofereceu evidências cruciais, não dados de usuários.
A comunidade de desenvolvedores não perdeu tempo, mergulhando imediatamente na base de código exposta. Sua análise rápida confirmou suspeitas de longa data sobre a crescente complexidade no backend do Claude Code. Essa análise aprofundada forneceu evidências concretas para a teoria do feature creep, que muitos haviam especulado estar por trás dos recentes picos de tokens.
A análise de código revelou sinalizadores de recursos internos para funcionalidades futuras como Terminal Pets, Proactive Mode e consolidação de memória em segundo plano. Essas descobertas sugeriram que a Anthropic estava silenciosamente adicionando uma nova e complexa infraestrutura a cada solicitação, mesmo para usuários que não estavam empregando ativamente esses recursos. Consequentemente, os usuários que estavam silenciosamente queimando seu dinheiro estavam pagando um imposto invisível de tokens por capacidades futuras, não pelo seu uso atual.
Conheça Seu 'Terminal Pet' Invisível
O vazamento acidental do código-fonte em 31 de março de 2026, forneceu um vislumbre claro do ambicioso roteiro da Anthropic, revelando inadvertidamente a fonte de grande parte do consumo oculto de tokens de Claude. Um arquivo JavaScript source map de 59.8 MB, brevemente exposto, continha feature flags internas para capacidades não lançadas, confirmando as suspeitas da comunidade de feature creep. Este vazamento ocorreu aproximadamente na mesma época em que a Anthropic reconheceu que os usuários estavam atingindo os limites de uso mais rápido do que o esperado, conforme relatado por Anthropic admite que as cotas de Claude Code estão acabando muito rápido - The Register.
Entre as revelações mais intrigantes estavam: - Terminal Pets: Um assistente semelhante a um Tamagotchi projetado para viver dentro do ambiente de desenvolvimento, oferecendo companhia persistente e interativa. - Proactive Mode (Kairos): Um agente sempre ativo destinado a antecipar as necessidades do desenvolvedor, monitorando ativamente o código e sugerindo melhorias sem solicitação explícita. - Background memory consolidation (Auto Dream): Um sistema para aprendizado persistente e retenção de contexto, permitindo que Claude construa uma compreensão mais profunda e de longo prazo de um projeto.
Esses recursos complexos e não lançados exigem uma infraestrutura subjacente sofisticada. Desenvolvedores especulam que a Anthropic expandiu massivamente o registro de ferramentas do sistema de Claude para suportar essas capacidades futuras, mesmo que ainda não estejam ativas para os usuários. Essa expansão envolve a adição de uma pesada camada de instruções, esquemas e lógica interna, agora incorporada e enviada com cada solicitação feita ao Claude Code.
Este extenso "manual de instruções" para funcionalidades futuras, crucial para a eventual implantação de recursos como Kairos e Auto Dream, contribui diretamente para o imposto invisível de tokens. Esses esquemas abrangentes são cobrados como "cache creation input tokens", o que significa que se acumulam silenciosamente em sua fatura, mas permanecem completamente ocultos da visualização `/context` da CLI, tornando-os indetectáveis por ferramentas de auditoria.
Os usuários estão, portanto, efetivamente pagando um imposto de infraestrutura pelo desenvolvimento futuro de produtos da Anthropic, mesmo enquanto seus próprios projetos enfrentam aumentos de custo súbitos e inexplicáveis. Essa cobrança prematura por funcionalidades não lançadas que silenciosamente queimam seu dinheiro transforma a codificação diária em um dreno financeiro inesperado. O sistema está consumindo tokens valiosos para se preparar para recursos que permanecem inacessíveis, impactando os custos operacionais atuais sem entregar valor imediato.
Bem-vindo à Era da 'AI Shrinkflation'
Bem-vindo à era perturbadora da AI shrinkflation, onde os clientes pagam o mesmo preço por um modelo de inteligência artificial que oferece visivelmente menos capacidade ou impõe maiores restrições. Este análogo digital à shrinkflation tradicional do consumidor, onde o tamanho ou a qualidade do produto diminui silenciosamente enquanto os preços se mantêm estáveis, agora assola a vanguarda da IA generativa. Os usuários de repente viram seus orçamentos de computação evaporarem, não devido ao aumento do uso pessoal, mas porque os modelos subjacentes exigem silenciosamente mais recursos para a mesma saída, muitas vezes sem notificação explícita.
O comportamento insidioso e faminto por tokens de Claude Code, queimando silenciosamente seu dinheiro através de 'cache creation input tokens' invisíveis e 'cache fingerprints' corrompidas, exemplifica perfeitamente essa tendência alarmante. Essa questão, onde uma solicitação de 10 centavos pode instantaneamente se tornar uma cobrança de $2, reflete uma insatisfação mais ampla. Usuários avançados em todo o cenário da IA relatam experiências semelhantes, particularmente com modelos emblemáticos como Claude Opus 4.6, citando um declínio notável na qualidade da saída, capacidade de raciocínio e confiabilidade geral. Essas reclamações frequentemente detalham modelos que se tornam mais verbosos, menos precisos ou simplesmente falham em completar tarefas que antes lidavam com facilidade e eficiência.
A Anthropic, como outros grandes desenvolvedores de IA, nega oficialmente qualquer degradação intencional de seus modelos. Em vez disso, embora a Anthropic tenha reconhecido que os usuários atingem os limites de uso mais rapidamente do que o esperado, eles frequentemente enquadram essas mudanças como otimizações necessárias, melhorias de eficiência ou ajustes nos "níveis de esforço" internos, em vez de rebaixamentos explícitos. Essa linguagem matizada, muitas vezes vaga, alimenta a suspeita dos usuários, transformando as quedas de desempenho percebidas em um significativo déficit de confiança entre os provedores e seus clientes mais engajados. A falta de post-mortems técnicos detalhados apenas exacerba essa frustração.
Essa estratégia de comunicação opaca, juntamente com os mecanismos de faturamento ocultos revelados pelo vazamento do código-fonte de 31 de março de 2026, corrói severamente a confiança vital entre as empresas de IA e seus usuários mais dedicados. Desenvolvedores, que dependem de desempenho previsível e faturamento transparente para seus projetos profissionais e aplicações inovadoras, encontram-se navegando em um cenário cada vez mais imprevisível e caro. A promessa implícita de melhoria contínua, um pilar do rápido avanço tecnológico, colide drasticamente com a realidade frustrante de picos de custo inesperados e regressões de capacidade percebidas, deixando os usuários avançados se sentindo explorados e ignorados em um mercado em rápida evolução.
Controle de Danos da Anthropic
Diante da indignação generalizada da comunidade e de relatórios detalhados de usuários sobre sua assinatura Claude Code queimando silenciosamente os limites de uso 40% mais rápido, a Anthropic iniciou uma resposta pública. A crescente frustração, alimentada por investigações independentes e pelo revelador vazamento do código-fonte de 31 de março de 2026, destacou discrepâncias críticas de faturamento e ineficiências de backend.
Lydia Hallie, líder de produto para Claude Code, reconheceu publicamente o problema crescente, confirmando que a empresa está 'investigando ativamente' o consumo de cota mais rápido do que o esperado. Essa admissão veio depois que numerosos usuários relataram atingir seus limites de uso muito mais rapidamente, apesar de manterem hábitos de codificação e tamanhos de projeto consistentes, desencadeando um debate generalizado sobre os custos ocultos de tokens.
Para abordar preocupações imediatas, a Anthropic implementou vários ajustes de backend que impactam o consumo de tokens. Eles reduziram drasticamente o Time To Live (TTL) do cache de prompts de uma hora para apenas cinco minutos, impedindo que a API referencie dados em cache desatualizados ou irrelevantes que anteriormente contribuíam para o reprocessamento desnecessário. A Anthropic também diminuiu o nível de 'esforço' padrão para certas operações internas, uma medida projetada para reduzir a sobrecarga computacional em segundo plano e o uso de tokens.
A Anthropic justificou ainda mais a restrição de frameworks de agentes de terceiros citando 'uma sobrecarga desproporcional em nossos sistemas'. Essa decisão, embora enquadrada como necessária para a estabilidade do sistema, também afasta os desenvolvedores de integrações externas e potencialmente os direciona para as ferramentas proprietárias da Anthropic. Isso representa uma mudança sutil, mas significativa, no controle sobre como os usuários interagem e estendem as capacidades de Claude.
Essas ações representam a tentativa da Anthropic de controle de danos contra as crescentes acusações de 'AI Shrinkflation' — o fenômeno de pagar o mesmo preço por um modelo de IA menos capaz ou mais restritivo. Embora essas etapas ofereçam algum alívio imediato, as questões centrais, incluindo o bug de impressão digital de cache corrompido e o registro expandido de ferramentas do sistema, ainda aguardam um post-mortem técnico abrangente e uma resolução definitiva da Anthropic.
Como Estancar a Hemorragia (Por Enquanto)
Usuários que sofrem com a taxa de token invisível da Anthropic e bugs persistentes de cache podem implementar contramedidas imediatas, embora temporárias. A comunidade de desenvolvedores, através de rigorosa análise de proxy HTTP, identificou uma solução crítica: falsificar o cabeçalho User-Agent. Ao configurar manualmente as requisições para se identificarem como `claude-cli/2.1.98`, em vez das problemáticas `claude-cli/2.1.100` ou versões posteriores, os desenvolvedores podem reduzir significativamente os "cache creation input tokens" secretamente adicionados a cada chamada de API. Essa simples mudança parece contornar uma parte substancial da sobrecarga expandida do registro de ferramentas do sistema, que de outra forma inflaciona os custos em até 40% por requisição.
Tenha extrema cautela ao utilizar o comando `--resume` ou `--continue` dentro do Claude Code. Investigações independentes confirmaram que este recurso frequentemente aciona um bug específico, quebrando o cache de todo o histórico de conversas em sua requisição inicial de retomada. Isso pode levar a um pico substancial e único de tokens, transformando instantaneamente uma consulta de 10 centavos em uma cobrança de $2, pois todo o código é reprocessado. Sempre monitore seus painéis de faturamento meticulosamente; a visualização `/context` da CLI não contabiliza esses tokens invisíveis, tornando o rastreamento granular de custos absolutamente essencial para evitar cobranças inesperadas.
Fazer o downgrade da sua versão da CLI do Claude Code diretamente para `2.1.98` apresenta uma opção mais abrangente, porém potencialmente menos estável. Embora este retrocesso mitigue efetivamente o aumento do consumo de tokens observado em versões mais recentes, também significa abrir mão de quaisquer correções de bugs legítimas, melhorias de desempenho ou novos recursos introduzidos em lançamentos subsequentes. Os usuários devem pesar a economia imediata de custos contra o potencial de encontrar problemas antigos e conhecidos ou desafios de compatibilidade. Para uma análise mais detalhada sobre o pico específico de tokens entre as versões, consulte Claude Code Silently Burns 40% More Tokens Since v2.1.100 | Awesome Agents.
Essas medidas servem como um paliativo, não uma solução permanente. A Anthropic tem a responsabilidade de abordar essas questões fundamentais de faturamento e cache de forma direta e transparente. Até que uma correção abrangente chegue, a vigilância proativa do usuário e as soluções alternativas compartilhadas pela comunidade permanecem a principal defesa contra o consumo silencioso de seu dinheiro em tokens invisíveis e mecanismos de cache quebrados.
O Déficit de Confiança: O Caminho de Claude Adiante
A identidade de marca da Anthropic, meticulosamente cultivada em torno da segurança e confiança da IA, agora enfrenta um desafio significativo. A revelação de que o Claude Code queima silenciosamente o dinheiro dos usuários através de tokens invisíveis e bugs persistentes de cache contradiz diretamente sua promessa central de IA ética. Essa erosão da confiança do usuário é particularmente prejudicial para uma ferramenta de desenvolvedor onde custos previsíveis e desempenho confiável são expectativas inegociáveis. O incidente lança uma longa sombra sobre seu compromisso com a transparência e o design centrado no usuário.
A "AI Shrinkflation" vivenciada pelos usuários do Claude Code oferece uma abertura competitiva acentuada para os rivais. Enquanto a Anthropic lida com seu déficit de confiança, players estabelecidos como GitHub Copilot e Cursor continuam a refinar sua experiência de desenvolvedor. Este incidente dá aos desenvolvedores um poderoso incentivo para reavaliar suas escolhas de assistentes de codificação de IA, potencialmente impulsionando uma migração significativa do Claude Code para alternativas que oferecem preços mais estáveis e operações transparentes. O mercado de ferramentas de desenvolvimento de IA é acirrado; erros como este acarretam pesadas consequências.
Os problemas de faturamento do Claude Code iluminam uma questão sistêmica em toda a indústria de IA: uma profunda falta de transparência de faturamento. Muitos provedores de IA obscurecem o verdadeiro custo das operações, ocultando prompts de sistema, processamento em segundo plano e gerenciamento de cache dentro de contagens de tokens opacas. Este incidente serve como um alerta crucial, potencialmente forçando as empresas a adotar práticas de faturamento mais claras e auditáveis, fornecendo aos usuários insights granulares sobre exatamente como seus tokens são consumidos. A expectativa por detalhamentos explícitos de custos só aumentará.
Reconstruir a confiança do usuário exige ações decisivas da Anthropic. Uma análise post-mortem técnica completa é fundamental, detalhando abertamente os bugs específicos – desde a impressão digital de cache corrompida até os custos ocultos do comando `--resume` – e a expansão sistêmica do registro de ferramentas que causou o aumento de 40% no consumo de tokens. Além da transparência técnica, a Anthropic deve oferecer soluções tangíveis: reembolsos proativos para usuários cobrados em excesso, um painel de uso reformulado que forneça detalhamentos granulares de tokens em tempo real e um compromisso com auditorias independentes. Somente através de tais medidas abrangentes eles podem esperar restaurar a credibilidade e demonstrar um compromisso genuíno com seus usuários.
Perguntas Frequentes
O que está fazendo o Claude Code usar tantos tokens?
Uma combinação de fatores, incluindo uma expansão massiva do registro de ferramentas do sistema cobrada invisivelmente, um bug de cache que reprocessa toda a sua base de código a cada turno e mudanças nos padrões de cache.
A Anthropic aumentou intencionalmente os custos para os usuários do Claude Code?
Embora a Anthropic tenha negado a degradação intencional de modelos, investigações revelaram mudanças como TTL de cache reduzido e novas instruções de segundo plano, pesadas em tokens, para recursos não lançados, levando a acusações de 'AI shrinkflation'.
O que foi revelado no vazamento do código-fonte do Claude Code?
Um vazamento em março de 2026 expôs sinalizadores de recursos internos para ferramentas não lançadas como 'Terminal Pets' e 'Proactive Mode', dando peso à teoria de que os usuários estão pagando por uma infraestrutura de recursos em segundo plano que ainda não podem usar.
Como posso reduzir meu uso de tokens do Claude Code agora mesmo?
Membros da comunidade encontraram uma solução temporária falsificando seu User-Agent para uma versão mais antiga (claude-cli/2.1.98), o que pode reduzir a injeção invisível de tokens. Além disso, tenha cuidado com o comando '--resume'.