Resumen / Puntos clave
Tu factura de IA se disparó repentinamente un 40%
Los usuarios de Claude Code han experimentado repentinamente un rápido agotamiento de sus límites de uso, a menudo sin alterar sus hábitos de codificación o la complejidad de sus prompts. Muchos reportan alcanzar sus límites de suscripción un 40% más rápido que solo semanas antes, lo que ha provocado una frustración generalizada. Este aumento inesperado y significativo en el consumo rápidamente encendió las alarmas en las comunidades de desarrolladores, impulsando llamados a la transparencia por parte de Anthropic.
Aunque Anthropic reconoció que los usuarios estaban alcanzando los límites más rápido de lo esperado, la comunidad lanzó su propia investigación a fondo. Los desarrolladores capturaron meticulosamente las solicitudes de API en bruto utilizando un proxy HTTP, revelando una discrepancia marcada y cuantificable. La investigación descubrió un salto directo del 40% en los tokens por solicitud al comparar las versiones 2.1.98 y 2.1.100 de Claude Code. Esto no fue una fluctuación menor, sino un aumento dramático y medible que impacta cada interacción.
En la versión 2.1.98, una solicitud base típica consumía aproximadamente 50.000 tokens. Sin embargo, tras la actualización a la versión 2.1.100, el servidor comenzó a facturar 20.000 tokens adicionales por la *misma operación del lado del cliente*. Esto ocurrió a pesar de que el cliente enviaba menos bytes, lo que apunta inequívocamente a una alteración del lado del servidor. Crucialmente, estos tokens añadidos son completamente invisibles dentro de la vista `/context` de la CLI, lo que los hace imposibles de rastrear e inexplicables para el usuario.
Este costo oculto se traduce directamente en que los usuarios pagan sustancialmente más por una salida idéntica, a menudo escalando una solicitud de 10 centavos a un cargo de $2 instantáneamente. El problema no es que el código del usuario se vuelva más "hambriento de tokens"; en cambio, la infraestructura de Anthropic está facturando en silencio por tokens que nunca se originaron en la entrada explícita del cliente. Esto plantea una pregunta crítica: ¿de dónde vienen estos tokens misteriosos, y por qué se añaden a la factura de cada usuario sin divulgación ni control?
El Impuesto Invisible de Tokens
Una porción significativa del reciente aumento de tokens de Claude Code se origina en lo que la comunidad llama un impuesto invisible de tokens. Este cargo oculto proviene de los "cache creation input tokens", una categoría de facturación que permanece completamente opaca para los usuarios. Aunque Anthropic factura por estos tokens, están notablemente ausentes de la vista `/context` de la CLI, dando a los usuarios una impresión peligrosamente falsa de su consumo real.
Los desarrolladores han capturado solicitudes de API en bruto, revelando un marcado contraste entre las versiones de Claude. En la versión 2.1.98, una solicitud base costaba alrededor de 50.000 tokens. Pero la versión 2.1.100 vio ese salto de 20.000 tokens – un aumento del 40% por solicitud – incluso cuando los clientes enviaron menos bytes. Este aumento sustancial simplemente no aparece en la auditoría `/context`, lo que hace imposible para los usuarios rastrear sus gastos de manera efectiva.
Dado que Anthropic no ha publicado un análisis post-mortem técnico, los desarrolladores realizaron ingeniería inversa de la CLI para descubrir la causa raíz. Una teoría principal apunta a una expansión masiva del registro de herramientas del sistema de Claude. Para que Claude sea mejor en el uso de herramientas MCP y en la gestión de enjambres complejos, Anthropic probablemente incrustó una pesada capa de instrucciones y esquemas. Este extenso manual de instrucciones oculto ahora acompaña cada solicitud.
Imagine pagar por el peso total de un libro de cocina complejo cada vez que compra un solo ingrediente en la tienda. Eso es precisamente lo que sucede con estos tokens invisibles. Incluso si los usuarios no aprovechan activamente estas nuevas funciones o herramientas complejas, siguen asumiendo la carga de tokens por la infraestructura expandida necesaria para soportarlas, quemando silenciosamente su dinero con cada interacción.
Error #1: La huella digital de caché dañada
Claude Code diseñó su mecanismo de caché para ser una piedra angular de la eficiencia de costos. Los usuarios esperaban que el sistema almacenara inteligentemente la mayor parte del contexto de su proyecto, a menudo hasta el 90% del código base, particularmente el contenido dentro de `Claude.md` y otros archivos estables. Esta estrategia tenía como objetivo facturar solo por el código recién introducido o modificaciones específicas, haciendo que el desarrollo iterativo con Claude fuera económicamente viable. La promesa era clara: pague por el delta, no por el todo.
Sin embargo, ha surgido un defecto crítico en versiones específicas del binario independiente de Claude, socavando fundamentalmente esta característica de ahorro de costos. Este error hace que el binario dañe la huella digital de la caché, un identificador único destinado a confirmar la integridad e identidad de los datos del proyecto en caché. En lugar de reconocer el contexto del proyecto existente, la API malinterpreta cada interacción posterior como una presentación de proyecto completamente nueva, forzando un reprocesamiento completo.
Las repercusiones financieras de este único error son asombrosas. Una solicitud rutinaria, quizás una consulta menor contra una base de código establecida que debería costar solo unos centavos —alrededor de 10 centavos—, se dispara instantáneamente. La reingesta forzada por parte de la API de todo el contexto del proyecto puede transformar esa operación nominal de 10 centavos en una solicitud de $2, lo que representa un aumento de precio de 20 veces. Este recargo invisible contribuye directamente a que los usuarios alcancen sus límites de uso mucho más rápido de lo previsto.
Profundizando en el problema, los desarrolladores de la comunidad identificaron un fallo particular de la caché como un problema dentro de una bifurcación personalizada del Bun runtime empleada por el binario independiente de Claude Code. Este runtime especializado, bajo ciertas condiciones, realiza una sustitución de cadena errónea. Específicamente, si el historial de chat contiene cualquier contenido relacionado con la facturación, esta sustitución puede corromper el prefijo de la caché, haciendo que el sistema no pueda identificar la información previamente procesada. Esto obliga a que todo el proyecto sea reevaluado desde cero con cada interacción. Para más discusiones técnicas e informes de usuarios, consulte el diálogo en curso: CC v2.1.100+ inflates cache_creation by ~20K tokens vs v2.1.98 — same payload, server-side · Issue #46917 · anthropics/claude-code - GitHub.
Otra falla significativa relacionada con la caché agrava aún más el problema. Activar el comando `--resume` o `--continue`, destinado a retomar sin problemas conversaciones anteriores, rompe inadvertidamente la caché para todo el historial de conversación. Esto ocurre en la primera solicitud reanudada, lo que desencadena un costo sustancial de tokens, de una sola vez, ya que Claude reingesta todo el contexto anterior. Dichos cargos ocultos contradicen la expectativa de una interacción continua y eficiente.
Error #2: El alto costo de reanudar
El error anterior, que dañaba las huellas digitales de la caché, no es el único culpable del comportamiento de Claude, que consume muchos tokens. Una segunda falla, igualmente insidiosa, afecta específicamente a los usuarios que intentan retomar donde lo dejaron. Este problema distinto gira en torno al comando `--resume` o `--continue`, una característica aparentemente inofensiva diseñada para la continuación fluida del flujo de trabajo y la preservación del contexto.
El uso de `--resume` desencadena una penalización significativa e inmediata. En la primera solicitud después de reanudar una conversación, Claude Code rompe inexplicablemente la caché de *todo* el historial de conversación anterior. En lugar de aprovechar inteligentemente la caché del proyecto del 90%, que debería almacenar su contenido de `Claude.md` y turnos anteriores, el sistema reprocesa cada interacción desde cero.
Esta falla en la utilización del mecanismo de caché previsto se traduce directamente en un costo masivo y único de tokens. Los desarrolladores, que esperan pagar solo por su nueva entrada, se les factura en cambio por el contexto completo y acumulado de toda su sesión. Este gasto inesperado puede consumir rápidamente una parte sustancial de la cuota mensual de un usuario, dejándolos desconcertados por el repentino aumento en el uso y el rápido agotamiento de su asignación.
Imagine una sesión de codificación prolongada, pausada y luego reanudada. El comando `--resume`, destinado a ahorrar tiempo y tokens, en cambio inicia un reprocesamiento completo de todo lo anterior. Este impacto único puede ser desproporcionadamente grande, convirtiendo una simple consulta de seguimiento en una operación costosa. Es una sorpresa costosa que afecta directamente el valor percibido de las funciones de desarrollo continuo de Claude Code.
Combinado con el problema de la huella digital de la caché dañada y el impuesto invisible de tokens del registro de herramientas del sistema expandido, estos errores crean una tormenta perfecta. Cada falla infla independientemente el consumo de tokens, pero su efecto acumulativo transforma las sesiones de codificación rutinarias en un rápido agotamiento de recursos. Claude Code está quemando su dinero en silencio, haciendo del desarrollo continuo una propuesta cada vez más costosa y dejando a los usuarios frustrados por la facturación impredecible.
La Confesión Accidental de Anthropic
Un evento crucial el 31 de marzo de 2026, proporcionó una visión crítica del creciente consumo de tokens de Claude. Una inclusión accidental en un paquete npm expuso un mapa de origen JavaScript de 59.8 MB, revelando unas asombrosas 500,000 líneas del funcionamiento interno de Claude Code. Esta divulgación involuntaria se convirtió en una confesión accidental, dejando al descubierto la arquitectura subyacente que contribuye a las facturas infladas de los usuarios.
Los desarrolladores descubrieron el archivo masivo dentro de la versión 2.1 del binario de Claude Code. Esta publicación no intencionada, no un hackeo dirigido, ofreció una mirada sin precedentes detrás del telón de Anthropic. El gran volumen de código expuesto despertó inmediatamente el interés de la comunidad, provocando un intenso escrutinio.
Anthropic reconoció rápidamente el incidente, emitiendo un comunicado oficial que lo clasificaba como "error humano, no una brecha de seguridad". Si bien Anthropic restó importancia a la gravedad desde una perspectiva de seguridad, la comunidad comprendió sus profundas implicaciones para la transparencia y las prácticas de facturación. Esta filtración accidental ofreció pruebas cruciales, no datos de usuario.
La comunidad de desarrolladores no perdió el tiempo, sumergiéndose inmediatamente en el código expuesto. Su rápido análisis confirmó las sospechas de larga data sobre la creciente complejidad dentro del backend de Claude Code. Esta inmersión profunda proporcionó evidencia concreta para la teoría del feature creep, que muchos habían especulado que estaba detrás de los recientes picos de tokens.
El análisis del código reveló indicadores de características internas para futuras funcionalidades como Terminal Pets, Proactive Mode y consolidación de memoria en segundo plano. Estos hallazgos sugirieron que Anthropic estaba superponiendo silenciosamente una infraestructura nueva y compleja en cada solicitud, incluso para usuarios que no empleaban activamente estas características. En consecuencia, los usuarios que quemaban su dinero en silencio estaban pagando un impuesto invisible de tokens por capacidades futuras, no por su uso actual.
Conozca a su 'Mascota de Terminal' Invisible
La filtración accidental del código fuente el 31 de marzo de 2026, ofreció un vistazo crudo a la ambiciosa hoja de ruta de Anthropic, revelando inadvertidamente la fuente de gran parte del consumo oculto de tokens de Claude. Un archivo de mapa de origen JavaScript de 59.8 MB, expuesto brevemente, contenía indicadores de características internas para capacidades no lanzadas, confirmando las sospechas de la comunidad sobre el feature creep. Esta filtración ocurrió aproximadamente al mismo tiempo que Anthropic reconoció que los usuarios estaban alcanzando los límites de uso más rápido de lo esperado, según informó Anthropic admits Claude Code quotas running out too fast - The Register.
Entre las revelaciones más intrigantes se encontraban: - Terminal Pets: Un asistente tipo Tamagotchi diseñado para vivir dentro del entorno de desarrollo, ofreciendo compañía persistente e interactiva. - Proactive Mode (Kairos): Un agente siempre activo destinado a anticipar las necesidades del desarrollador, monitoreando activamente el código y sugiriendo mejoras sin indicaciones explícitas. - Background memory consolidation (Auto Dream): Un sistema para el aprendizaje persistente y la retención de contexto, permitiendo a Claude construir una comprensión más profunda y a largo plazo de un proyecto.
Estas características complejas y no lanzadas exigen una infraestructura subyacente sofisticada. Los desarrolladores especulan que Anthropic ha expandido masivamente el registro de herramientas del sistema de Claude para soportar estas futuras capacidades, incluso si aún no están activas para los usuarios. Esta expansión implica añadir una pesada capa de instrucciones, esquemas y lógica interna, ahora incrustada y enviada con cada solicitud realizada a Claude Code.
Este extenso "manual de instrucciones" para futuras funcionalidades, crucial para el eventual despliegue de características como Kairos y Auto Dream, contribuye directamente al impuesto invisible de tokens. Estos esquemas completos se facturan como "cache creation input tokens", lo que significa que se acumulan silenciosamente en su factura pero permanecen completamente ocultos de la vista `/context` de la CLI, haciéndolos imposibles de rastrear por las herramientas de auditoría.
Los usuarios están, por lo tanto, pagando efectivamente un impuesto de infraestructura por el futuro desarrollo de productos de Anthropic, incluso mientras sus propios proyectos enfrentan aumentos de costos repentinos e inexplicables. Esta facturación prematura por funcionalidades no lanzadas que queman silenciosamente su dinero transforma la codificación diaria en un drenaje financiero inesperado. El sistema está consumiendo tokens valiosos para prepararse para características que permanecen inaccesibles, impactando los costos operativos actuales sin entregar valor inmediato.
Bienvenido a la Era de la 'AI Shrinkflation'
Bienvenido a la inquietante era de la AI shrinkflation, donde los clientes pagan el mismo precio por un modelo de inteligencia artificial que ofrece una capacidad demostrablemente menor o impone mayores restricciones. Este análogo digital de la tradicional reducción por inflación del consumidor (shrinkflation), donde el tamaño o la calidad del producto disminuyen silenciosamente mientras los precios se mantienen estables, ahora afecta a la vanguardia de la IA generativa. Los usuarios han visto de repente cómo sus presupuestos de computación se evaporan, no debido a un mayor uso personal, sino porque los modelos subyacentes exigen silenciosamente más recursos para la misma salida, a menudo sin notificación explícita.
El comportamiento insidioso y hambriento de tokens de Claude Code, que quema silenciosamente su dinero a través de 'cache creation input tokens' invisibles y huellas de caché alteradas, ejemplifica perfectamente esta alarmante tendencia. Este problema, donde una solicitud de 10 centavos puede convertirse instantáneamente en un cargo de $2, refleja una insatisfacción más amplia. Los usuarios avanzados de todo el panorama de la IA reportan experiencias similares, particularmente con modelos insignia como Claude Opus 4.6, citando una disminución notable en la calidad de la salida, la capacidad de razonamiento y la fiabilidad general. Estas quejas detallan con frecuencia que los modelos se vuelven más verbosos, menos precisos o simplemente no logran completar tareas que antes manejaban con facilidad y eficiencia.
Anthropic, al igual que otros importantes desarrolladores de AI, niega oficialmente cualquier degradación intencional de sus modelos. En cambio, si bien Anthropic ha reconocido que los usuarios alcanzan los límites de uso más rápido de lo esperado, a menudo enmarcan estos cambios como optimizaciones necesarias, mejoras de eficiencia o ajustes a los "niveles de esfuerzo" internos en lugar de degradaciones explícitas. Este lenguaje matizado, a menudo vago, alimenta la sospecha de los usuarios, transformando las caídas de rendimiento percibidas en un significativo déficit de confianza entre los proveedores y sus clientes más involucrados. La falta de análisis post-mortem técnicos detallados solo exacerba esta frustración.
Esta estrategia de comunicación opaca, junto con los mecanismos de facturación ocultos revelados por la filtración del código fuente del 31 de marzo de 2026, erosiona gravemente la confianza vital entre las empresas de AI y sus usuarios más dedicados. Los desarrolladores, que dependen de un rendimiento predecible y una facturación transparente para sus proyectos profesionales y aplicaciones innovadoras, se encuentran navegando en un panorama cada vez más impredecible y costoso. La promesa implícita de mejora continua, una piedra angular del rápido avance tecnológico, choca bruscamente con la frustrante realidad de picos de costos inesperados y regresiones de capacidad percibidas, dejando a los usuarios avanzados sintiéndose explotados y desatendidos en un mercado en rápida evolución.
Control de Daños de Anthropic
Frente a la protesta generalizada de la comunidad y los informes detallados de usuarios sobre su suscripción a Claude Code que consumía silenciosamente los límites de uso un 40% más rápido, Anthropic inició una respuesta pública. La creciente frustración, alimentada por investigaciones independientes y la reveladora filtración del código fuente del 31 de marzo de 2026, destacó discrepancias críticas en la facturación e ineficiencias en el backend.
Lydia Hallie, líder de producto para Claude Code, reconoció públicamente el problema creciente, confirmando que la empresa está 'investigando activamente' el consumo de cuota más rápido de lo esperado. Esta admisión llegó después de que numerosos usuarios informaran haber alcanzado repentinamente sus límites de uso mucho más rápido, a pesar de mantener hábitos de codificación y tamaños de proyectos consistentes, lo que desató un debate generalizado sobre los costos ocultos de los tokens.
Para abordar las preocupaciones inmediatas, Anthropic implementó varios ajustes de backend que impactan el consumo de tokens. Redujeron drásticamente el Time To Live (TTL) de la caché de prompts de una hora a solo cinco minutos, evitando que la API referenciara datos cacheados obsoletos o irrelevantes que previamente contribuían a un reprocesamiento innecesario. Anthropic también redujo el nivel de 'esfuerzo' predeterminado para ciertas operaciones internas, una medida diseñada para reducir la sobrecarga computacional en segundo plano y el uso de tokens.
Anthropic justificó además la restricción de los frameworks de agentes de terceros citando una 'tensión desproporcionada en nuestros sistemas'. Esta decisión, aunque enmarcada como necesaria para la estabilidad del sistema, también aleja a los desarrolladores de las integraciones externas y potencialmente hacia las herramientas propietarias de Anthropic. Representa un cambio sutil pero significativo en el control sobre cómo los usuarios interactúan y extienden las capacidades de Claude.
Estas acciones representan el intento de Anthropic de controlar los daños frente a las crecientes acusaciones de 'AI Shrinkflation' —el fenómeno de pagar el mismo precio por un modelo de AI menos capaz o más restrictivo. Si bien estos pasos ofrecen un alivio inmediato, los problemas centrales, incluido el error de la huella digital de la caché dañada y el registro ampliado de herramientas del sistema, aún esperan un análisis post-mortem técnico exhaustivo y una resolución definitiva por parte de Anthropic.
Cómo Detener la Hemorragia (Por Ahora)
Los usuarios afectados por el impuesto invisible de tokens de Anthropic y los persistentes errores de caché pueden implementar contramedidas inmediatas, aunque temporales. La comunidad de desarrolladores, a través de un riguroso análisis de proxy HTTP, identificó una solución crítica: falsificar el encabezado User-Agent. Al configurar manualmente las solicitudes para identificarse como `claude-cli/2.1.98`, en lugar de las problemáticas `claude-cli/2.1.100` o versiones posteriores, los desarrolladores pueden reducir significativamente los "cache creation input tokens" añadidos secretamente a cada llamada a la API. Este simple cambio parece eludir una parte sustancial de la sobrecarga del registro de herramientas del sistema expandido, que de otro modo infla los costos hasta en un 40% por solicitud.
Extreme la precaución al utilizar el comando `--resume` o `--continue` dentro de Claude Code. Investigaciones independientes confirmaron que esta característica a menudo activa un error específico, rompiendo la caché de todo el historial de una conversación en su solicitud reanudada inicial. Esto puede provocar un aumento sustancial y único de tokens, convirtiendo instantáneamente una consulta de 10 centavos en un cargo de $2 a medida que se reprocesa todo el código base. Siempre supervise sus billing dashboards meticulosamente; la vista `/context` de la CLI no tiene en cuenta estos tokens invisibles, lo que hace que el seguimiento granular de costos sea absolutamente esencial para evitar cargos inesperados.
Degradar su versión de Claude Code CLI directamente a `2.1.98` presenta una opción más completa, aunque potencialmente menos estable. Si bien esta reversión mitiga eficazmente el aumento del consumo de tokens observado en versiones más nuevas, también significa renunciar a cualquier corrección de errores legítima, mejoras de rendimiento o nuevas características introducidas en lanzamientos posteriores. Los usuarios deben sopesar los ahorros de costos inmediatos frente al potencial de encontrar problemas conocidos más antiguos o desafíos de compatibilidad. Para un análisis más detallado sobre el aumento específico de tokens entre versiones, consulte Claude Code Silently Burns 40% More Tokens Since v2.1.100 | Awesome Agents.
Estas medidas sirven como un paliativo, no como una solución permanente. Anthropic tiene la responsabilidad de abordar estos problemas fundamentales de facturación y caché de manera directa y transparente. Hasta que llegue una solución integral, la vigilancia proactiva del usuario y las soluciones compartidas por la comunidad siguen siendo la principal defensa contra el gasto silencioso de su dinero en tokens invisibles y mecanismos de caché defectuosos.
El Déficit de Confianza: El Camino a Seguir de Claude
La identidad de marca de Anthropic, meticulosamente cultivada en torno a la seguridad y confianza de la IA, ahora enfrenta un desafío significativo. La revelación de que Claude Code quema silenciosamente el dinero de los usuarios a través de tokens invisibles y persistentes errores de caché contradice directamente su promesa central de IA ética. Esta erosión de la confianza del usuario es particularmente dañina para una herramienta de desarrollador donde los costos predecibles y el rendimiento confiable son expectativas no negociables. El incidente arroja una larga sombra sobre su compromiso con la transparencia y el diseño centrado en el usuario.
La "AI Shrinkflation" experimentada por los usuarios de Claude Code ofrece una clara oportunidad competitiva para los rivales. Mientras Anthropic lidia con su déficit de confianza, actores establecidos como GitHub Copilot y Cursor continúan refinando su experiencia de desarrollador. Este incidente da a los desarrolladores un poderoso incentivo para reevaluar sus opciones de asistentes de codificación de IA, lo que podría impulsar una migración significativa de Claude Code hacia alternativas que ofrezcan precios más estables y operaciones transparentes. El mercado de herramientas de desarrollo de IA es despiadado; errores como este conllevan graves consecuencias.
Los problemas de facturación de Claude Code iluminan un problema sistémico en la industria de la IA en general: una profunda falta de transparencia en la facturación. Muchos proveedores de IA ocultan el costo real de las operaciones, enterrando las indicaciones del sistema, el procesamiento en segundo plano y la gestión de la caché dentro de recuentos de tokens opacos. Este incidente sirve como una llamada de atención crucial, que podría obligar a las empresas a adoptar prácticas de facturación más claras y auditables, proporcionando a los usuarios información granular sobre cómo se consumen exactamente sus tokens. La expectativa de desgloses de costos explícitos solo crecerá.
Reconstruir la confianza del usuario exige una acción decisiva por parte de Anthropic. Un análisis post-mortem técnico exhaustivo es primordial, detallando abiertamente los errores específicos –desde la huella de caché dañada hasta los costos ocultos del comando `--resume`– y la expansión sistémica del registro de herramientas que causó el aumento del 40% en el consumo de tokens. Más allá de la transparencia técnica, Anthropic debe ofrecer soluciones tangibles: reembolsos proactivos para los usuarios con facturación excesiva, un panel de uso renovado que proporcione desgloses de tokens granulares en tiempo real y un compromiso con auditorías independientes. Solo a través de medidas tan completas podrán esperar restaurar la credibilidad y demostrar un compromiso genuino con sus usuarios.
Preguntas Frecuentes
¿Qué está causando que Claude Code use tantos tokens?
Una combinación de factores, incluyendo una expansión masiva del registro de herramientas del sistema facturada de forma invisible, un error de caché que reprocesa toda su base de código en cada turno y cambios en los valores predeterminados de la caché.
¿Anthropic aumentó intencionalmente los costos para los usuarios de Claude Code?
Aunque Anthropic ha negado degradar intencionalmente los modelos, las investigaciones revelaron cambios como la reducción del TTL de la caché y nuevas instrucciones de fondo que consumen muchos tokens para funciones no lanzadas, lo que llevó a acusaciones de 'AI shrinkflation'.
¿Qué se reveló en la filtración del código fuente de Claude Code?
Una filtración en marzo de 2026 expuso indicadores de funciones internas para herramientas no lanzadas como 'Terminal Pets' y 'Proactive Mode', lo que da peso a la teoría de que los usuarios están pagando por una infraestructura de funciones en segundo plano que aún no pueden usar.
¿Cómo puedo reducir mi uso de tokens de Claude Code ahora mismo?
Los miembros de la comunidad han encontrado una solución temporal falsificando su User-Agent a una versión anterior (claude-cli/2.1.98), lo que puede reducir la inyección invisible de tokens. Además, tenga cuidado con el comando '--resume'.