Bug de Palavra-Chave Caro da Anthropic

Uma única string em seus prompts pode secretamente esgotar sua conta Anthropic. Descubra o bug 'Hermes.md' que custou centenas a um desenvolvedor e o que isso significa para a cobrança de IA.

Stork.AI
Hero image for: Bug de Palavra-Chave Caro da Anthropic
💡

Resumo / Pontos-chave

Uma única string em seus prompts pode secretamente esgotar sua conta Anthropic. Descubra o bug 'Hermes.md' que custou centenas a um desenvolvedor e o que isso significa para a cobrança de IA.

A Anomalia de $200 em uma Fatura de 13%

Um desenvolvedor que utiliza os serviços de IA da Anthropic encontrou recentemente uma anomalia financeira intrigante, relatando no Reddit um esgotamento súbito e inesperado de seu plano de $200. Apesar do que parecia ser um uso conservador, sua conta registrou-se como completamente esgotada de crédito disponível, disparando um alarme imediato. Este esgotamento rápido e inexplicável de fundos contradizia diretamente as expectativas operacionais do desenvolvedor para seu nível de assinatura.

A verdadeira dimensão do problema tornou-se aparente ao revisar o painel da Anthropic. Ele apresentava um valor surpreendentemente baixo, indicando apenas 13% de uso semanal, uma estatística profundamente em desacordo com um teto financeiro totalmente esgotado. Este contraste gritante, quase absurdo, entre as métricas de consumo relatadas pela plataforma e a cobrança real e massiva expôs uma falha potencial significativa na infraestrutura de cobrança e na transparência da Anthropic.

Esta discrepância gritante e massiva impulsionou imediatamente o desenvolvedor a uma investigação detalhada, liderada pelo usuário, dos mecanismos opacos de atribuição de custos da Anthropic. Intrigados e financeiramente impactados pela sobretaxa não reconhecida, eles começaram a testar meticulosamente vários prompts de IA, contextos de entrada e padrões de interação dentro de sua base de código. O objetivo singular e urgente: identificar precisamente as ações específicas, talvez ocultas, ou entradas aparentemente inócuas que poderiam explicar um pico de consumo tão extremo e inesperado, transformando efetivamente o desenvolvedor em um analista forense improvisado de suas próprias chamadas de API.

O mistério central intensificou-se: como os sofisticados sistemas de cobrança da Anthropic poderiam relatar uma atividade tão mínima — apenas 13% de uso semanal — enquanto simultaneamente esgotavam um plano de $200 inteiro em dias? Os desenvolvedores dependem criticamente de leituras precisas do painel para projeções de custos confiáveis e monitoramento vigilante do uso, tornando esta profunda discrepância de cobrança uma quebra significativa de confiança. O relatório inicial no Reddit rapidamente gerou preocupação generalizada, destacando um problema potencialmente sistêmico para a comunidade de desenvolvedores da Anthropic e levantando questões sobre a transparência de suas cobranças de serviços de IA.

Caçando o Fantasma na Máquina

Ilustração: Caçando o Fantasma na Máquina
Ilustração: Caçando o Fantasma na Máquina

O plano de $200 do desenvolvedor esgotou-se inesperadamente, apesar do painel mostrar 13% de uso semanal, o que levou a uma investigação meticulosa. O Redditor embarcou em um processo de eliminação minucioso, testando sistematicamente inúmeros prompts, trechos de código e entradas contextuais. Eles variaram os comprimentos dos prompts, incluíram diferentes tipos de arquivo e experimentaram diversas estruturas conversacionais, registrando meticulosamente cada interação e sua implicação de custo correspondente. Não foi uma verificação casual; foi um esforço de depuração dedicado para descobrir o dreno invisível em seus recursos.

Sua persistência revelou um culpado verdadeiramente bizarro. A anomalia de cobrança manifestava-se consistentemente quando os prompts incluíam uma string específica e aparentemente inócua: 'Hermes.md'. Sua presença em qualquer lugar dentro do contexto do prompt, independentemente de outros fatores, causava imediatamente o acúmulo de cobranças adicionais e não registradas pelo sistema da Anthropic. Esta string em particular agia como um interruptor oculto, acionando o mecanismo de cobrança para um modo inesperado e custoso, completamente desvinculado das métricas de uso relatadas.

Crucialmente, 'Hermes.md' não precisava representar um arquivo real e existente dentro do repositório ou projeto do desenvolvedor. A mera existência textual da string, talvez incorporada em um comentário, uma string de documentação, ou mesmo uma Git commit message, foi suficiente para acionar a cobrança extra. Este gatilho arbitrário desafiou a lógica de faturamento convencional, onde as cobranças geralmente se correlacionam com a complexidade do processamento ou o consumo de recursos. O sistema parecia cobrar um prêmio por uma sequência específica de caracteres, e não por uma tarefa ou objeto de dados identificável.

Esta revelação redefiniu dramaticamente o problema. Ela transcendeu um simples erro de cálculo de faturamento; em vez disso, expôs uma falha profunda e baseada em conteúdo na infraestrutura de cobrança da Anthropic. A Anthropic's AI não estava meramente contando erroneamente tokens ou ciclos computacionais; ela estava demonstravelmente reagindo a padrões textuais específicos, impondo sobretaxas arbitrárias para strings aparentemente inofensivas. A questão evoluiu de uma discrepância numérica para uma questão profunda de como os modelos de IA interpretam e monetizam a entrada do usuário. Isso destacou uma alarmante falta de transparência em suas estruturas de custo, sugerindo um sistema que poderia penalizar os usuários por fatores inteiramente fora de seu controle ou compreensão. O bug transformou um inconveniente financeiro em um desafio significativo para a confiança e a previsibilidade no consumo de serviços de IA.

A Palavra-Chave Que Quebrou o Banco

Investigadores identificaram o culpado: a string Hermes.md. Esta sequência aparentemente inócua, quando presente em qualquer lugar no contexto do prompt — mesmo incorporada em uma Git commit message ou um simples comentário — silenciosamente direcionava o uso para um nível de faturamento mais alto. Crucialmente, as cobranças só eram acionadas se "Hermes.md" aparecesse em maiúsculas precisas, adicionando outra camada de especificidade bizarra e imprevisibilidade ao bug. O arquivo em si nem precisava existir; sua mera presença textual era suficiente para acionar custos inesperados.

Agora a Anthropic reconheceu um "bug nessa harness detection de terceiros", oferecendo prontamente um reembolso ao desenvolvedor afetado. Esta admissão confirma a existência de um sistema subjacente projetado para identificar e potencialmente cobrar mais por tipos específicos de entrada ou "third-party harnesses". A resposta da empresa implica que, embora o mecanismo de *detecção* para esta string específica estivesse com falha, a política mais ampla de precificação diferencial para certos conteúdos de prompt permanece uma característica intencional de sua arquitetura de faturamento. Esta distinção é crítica para a compreensão das implicações mais profundas.

A escolha de 'Hermes' permanece especulativa, mas provavelmente aponta para um nome de projeto interno, um test harness específico ou uma ferramenta proprietária que os sistemas da Anthropic estão programados para sinalizar. Os desenvolvedores se viram lidando com consequências financeiras significativas de uma string obscura e sensível a maiúsculas/minúsculas, completamente desvinculada de qualquer arquivo real ou requisito funcional. Isso destaca uma profunda falta de transparência e previsibilidade em como os modelos de IA consomem recursos, forçando os usuários a um custoso jogo de detetive para entender suas contas.

Este cenário bizarro, onde uma string aleatória e em maiúsculas ditava a faturação, sublinha a posição precária que os programadores enfrentam ao lidar com serviços complexos de IA. A investigação meticulosa do utilizador do Reddit, transformando uma anomalia de $200 num problema amplamente reportado, revelou uma falha crítica que poderia inflacionar silenciosamente os custos para qualquer pessoa que utilize os modelos Claude Code da Anthropic, apesar de o painel de controlo mostrar apenas 13% de uso semanal. Para mais detalhes sobre esta peculiar anomalia de faturação, incluindo o relato detalhado do programador, consulte a publicação original do Reddit: PSA: The string "HERMES.md" in your git commit history silently routes Claude Code billing to extra usage — cost me $200 : r/generativeAI. Tais encargos inesperados e opacos corroem a confiança e exigem uma comunicação mais clara dos fornecedores de IA relativamente à sua intrincada lógica de faturação e como entradas específicas afetam o consumo de recursos.

Controlo de Danos da Anthropic

A Anthropic agiu rapidamente para resolver a anomalia de faturação inesperada, contactando diretamente o utilizador do Reddit que inicialmente expôs o problema. Representantes da empresa reconheceram oficialmente o bug crítico, validando as descobertas meticulosas do programador relativamente ao excesso de $200. Esta resposta rápida visava acalmar as ansiedades imediatas dos utilizadores e demonstrar responsabilidade.

A declaração oficial da empresa apontou "um bug na deteção de arneses de terceiros" como a causa raiz. Esta formulação específica foi crucial: esclareceu que o problema não era uma política para potencialmente cobrar MAIS por determinado conteúdo, mas sim uma falha no *mecanismo* concebido para identificar tais "arneses". A explicação implicava fortemente a existência de um sistema subjacente para diferenciar as taxas de faturação com base em características específicas dos prompts, como a presença de certas palavras-chave, com o bug a afetar apenas a sua precisão. Esta distinção matizada levantou imediatamente questões sobre a filosofia de preços mais ampla da Anthropic.

O remédio imediato da Anthropic incluiu um reembolso total para o programador afetado, compensando os encargos inesperados que levaram o seu plano máximo de $200 a exceder o limite. Além da restituição financeira, a empresa prometeu uma investigação exaustiva e a implementação de uma correção robusta para o sistema de deteção falho. Este compromisso procurou reconstruir a confiança e garantir a transparência futura da faturação para todos os utilizadores.

A reação da comunidade, particularmente de comentadores de tecnologia como Better Stack, recebeu a explicação da Anthropic com uma mistura de alívio e ceticismo persistente. Embora os utilizadores tenham apreciado o reembolso rápido e o reconhecimento, o foco num bug de "deteção" deixou uma questão crucial sem resposta: por que razão os prompts contendo strings como "Hermes.md", mesmo dentro de uma mensagem de commit Git, desencadeariam inerentemente custos mais elevados em primeiro lugar? Os críticos argumentaram que a resposta da empresa contornou a questão mais ampla da faturação opaca para conteúdo específico, sugerindo que a política subjacente para cobrar MAIS por certos "arneses" permaneceu não abordada e potencialmente problemática. A comunidade procurou maior clareza sobre o que constitui um "arnês de terceiros" e as suas implicações de preços associadas, indo além da correção imediata do bug e exigindo mais transparência para todas as notícias de IA e de programadores.

Um 'Bug' ou uma Funcionalidade que Deu Errado?

Ilustração: Um 'Bug' ou uma Funcionalidade que Deu Errado?
Ilustração: Um 'Bug' ou uma Funcionalidade que Deu Errado?

O rápido reconhecimento da Anthropic de um “bug na deteção de arneses de terceiros” ofereceu um reembolso, mas revelou uma questão mais complexa. Não se tratava simplesmente de uma falha que gerou incorretamente uma cobrança; era uma falha num sistema explicitamente concebido para identificar e cobrar mais por tipos específicos de prompts de IA. O verdadeiro "bug" não residia na existência de preços diferenciais, mas na sua aplicação errónea.

Subjacente à faturação da Anthropic está um mecanismo para detetar o que a empresa se refere como "harnesses". Estes são presumivelmente estruturas de prompt específicas ou padrões de conteúdo que a Anthropic considera mais intensivos em recursos, estrategicamente sensíveis ou valiosos, justificando assim um custo mais elevado. O incidente sugere que a Anthropic mantém um sistema interno de classificação para interações do utilizador.

O excesso de uso de um utilizador do Reddit resultou da string "Hermes.md" que apareceu numa mensagem de commit do Git dentro do contexto do seu prompt, e não num ficheiro real. Esta string inócua, detetada pelo sistema da Anthropic, foi erroneamente sinalizada como um "third-party harness", desencadeando cobranças premium inesperadas. O sistema falhou em distinguir com precisão o uso de alto custo pretendido de um texto benigno.

O incidente destaca a estratégia mais ampla da Anthropic para gerir e potencialmente monetizar a forma como os utilizadores interagem com os seus modelos de IA. A própria presença de um sistema de "harness detection" indica uma política de categorização e precificação diferencial de certos tipos de prompt. Esta abordagem vai além da simples contagem de tokens, introduzindo uma camada de complexidade na faturação.

Isto levanta questões significativas sobre a transparência na precificação da IA. Os utilizadores devem enfrentar cobranças mais altas com base no *conteúdo* ou *estrutura* específicos dos seus prompts, para além do uso padrão de tokens? O incidente da Anthropic força os desenvolvedores a considerar não apenas o comprimento da sua entrada, mas também os potenciais custos ocultos de certas palavras-chave ou padrões.

Decifrando 'Third-Party Harnesses'

O "harness" da IA refere-se a uma sofisticada estrutura de avaliação ou um conjunto de testes, essencialmente um invólucro automatizado em torno de um LLM. Desenvolvedores e pesquisadores implementam esses sistemas programáticos para fazer benchmark de Large Language Models, comparar métricas de desempenho entre diferentes sistemas de IA e testar rigorosamente as capacidades. Tais estruturas frequentemente envolvem a geração de grandes volumes de consultas estruturadas e a análise sistemática das respostas do modelo, automatizando interações que seriam impraticáveis manualmente.

Empresas como a Anthropic possuem fortes motivações para identificar e potencialmente impor cobranças adicionais para este tipo específico de uso. Harnesses consomem substanciais recursos computacionais através de chamadas de API repetitivas e de alta frequência, potencialmente sobrecarregando a infraestrutura. Além disso, os fornecedores de IA podem ver o benchmarking extensivo de terceiros como uma forma de recolha de inteligência competitiva, onde entidades externas extraem insights valiosos sobre os pontos fortes, vieses e limitações dos seus modelos proprietários sem compensação direta por esse valor analítico.

A precificação diferencial ou restrições diretas para harnesses criam obstáculos significativos para a comunidade de código aberto e pesquisadores independentes. Estes grupos dependem fortemente de tais estruturas para fazer benchmark de modelos de forma transparente, validar alegações de pesquisa e promover a inovação através da análise comparativa. Impor custos mais altos ou limitar o acesso impede diretamente o avanço colaborativo da IA, limitando o escrutínio abrangente e o acesso para aqueles sem financiamento substancial ou acordos comerciais. Esta política arrisca centralizar a avaliação da IA.

O reconhecimento da Anthropic de um "bug na detecção de harness de terceiros" confirma uma intenção subjacente de diferenciar os preços para essas ferramentas automatizadas, em vez de apenas uma simples cobrança excessiva. Esta não é a primeira vez que eles tentam controlar como frameworks externos interagem com seus modelos. Ações anteriores, como o "OpenClaw Ban", demonstram um padrão claro de restrição ou desincentivo ao acesso automatizado. Para mais contexto sobre essas políticas e a posição da Anthropic, explore What Is the Anthropic OpenClaw Ban? How Third-Party Harnesses Were Blocked From Claude Subscriptions | MindStudio. Este contexto histórico sugere que o recente incidente "Hermes.md" resultou de uma implementação falha de uma política preexistente e deliberada, projetada para gerenciar ou monetizar tipos específicos de interação de modelo.

O Déficit de Confiança na Cobrança de IA

O incidente "Hermes.md" da Anthropic vai muito além de uma falha técnica de uma única empresa, revelando uma vulnerabilidade crítica em toda a indústria de IA: transparência na cobrança. À medida que as empresas integram cada vez mais modelos de IA sofisticados em seus fluxos de trabalho centrais, elas exigem estruturas de custos previsíveis e compreensíveis. O cenário atual frequentemente falha em fornecer essa garantia fundamental, criando um ambiente de incerteza que impede ativamente uma adoção empresarial mais ampla.

As empresas não conseguem estabelecer modelos financeiros robustos quando os custos dos serviços de IA flutuam com base em gatilhos não documentados e dependentes do conteúdo. O relatório inicial do Reddit detalhou um desenvolvedor que esgotou inesperadamente um plano de uso de US$ 200, apesar de seu painel mostrar 13% de uso semanal, tudo porque uma string específica, "Hermes.md", em uma mensagem de commit do Git, acionou cobranças ocultas e premium. Esse mecanismo de cobrança opaco, inicialmente atribuído pela Anthropic a um "bug na detecção de harness de terceiros", destaca um déficit fundamental de confiança que permeia o setor.

Tais cobranças baseadas em conteúdo, especialmente quando carecem de documentação explícita ou aparecem arbitrariamente, corroem severamente a confiança do usuário. Imagine um provedor de nuvem cobrando extra por palavras-chave específicas dentro de uma entrada de banco de dados ou por certos tipos de arquivo enviados para armazenamento. Este cenário é impensável na computação em nuvem estabelecida, onde os preços para instâncias de computação, armazenamento de dados e saída de rede são meticulosamente documentados e explicitamente definidos. Os usuários entendem o custo por gigabyte de dados armazenados ou por hora de CPU consumida; eles não antecipam sobretaxas por strings aparentemente inócuas.

Essa diferença fundamental cria uma hesitação significativa para a adoção da IA. As empresas precisam de políticas de preços claras e inequívocas para prever as despesas operacionais com precisão e evitar penalidades financeiras inesperadas. A situação da Anthropic, onde a *detecção* do que cobrar estava falha, em vez da própria cobrança, ressalta a necessidade premente da indústria por uma mudança de paradigma. Os provedores de IA devem priorizar regras de precificação explícitas e documentação abrangente, garantindo que os usuários compreendam totalmente as implicações financeiras de cada interação. Sem essa base de confiança, a integração generalizada da IA em todos os setores enfrenta uma batalha difícil.

Sua IA Está Lendo Seus Recibos?

Ilustração: Sua IA Está Lendo Seus Recibos?
Ilustração: Sua IA Está Lendo Seus Recibos?

A recente anomalia de cobrança da Anthropic, onde uma string específica como "Hermes.md" acionou cobranças inesperadas, estabelece um precedente profundamente perturbador. Isso vai além da simples contagem de tokens, sugerindo que um serviço de IA interpreta e monetiza ativamente o *conteúdo* dos prompts do usuário. Os usuários agora enfrentam a perspectiva de seu parceiro de IA não apenas processar solicitações, mas também avaliar seu valor intrínseco com base em palavras-chave incorporadas.

Preocupações com a privacidade surgem imediatamente. Se os sistemas da Anthropic escaneiam por "Hermes.md" para identificar um "third-party harness", que outras palavras-chave ou padrões de dados eles estão monitorando ativamente dentro dos prompts dos usuários? Este incidente levanta questões legítimas sobre o escopo da análise de conteúdo e se tal escrutínio se estende ao perfilamento da intenção do usuário ou dados sensíveis, indo além da gestão de recursos para uma potencial coleta de dados.

As empresas analisam rotineiramente os prompts para vulnerabilidades de segurança, detecção de abuso ou para otimizar a alocação de recursos. Esta é uma necessidade operacional reconhecida no cenário da AI. No entanto, cobrar de forma diferente com base na mera presença de uma string específica e não funcional borra a linha crucial entre segurança necessária e monitoramento intrusivo, alterando fundamentalmente a relação usuário-provedor.

O espectro de futuras cobranças 'premium' paira. Se uma string em uma Git commit message pode incorrer em custos mais altos, imagine serviços de AI implementando preços diferenciados com base em: - Tópicos específicos, como consultas financeiras ou médicas sensíveis. - Tipos de código proprietários, com taxas mais altas para frameworks complexos. - Estruturas de consulta avançadas, talvez conversas multi-turn sofisticadas. Isso abre um caminho para a monetização baseada em conteúdo, anteriormente imprevista em AI de propósito geral.

A erosão da confiança do usuário torna-se uma consequência inevitável sem transparência explícita. Desenvolvedores, como o do Reddit que descobriu a sobretaxa de $200 apesar de mostrar 13% de uso semanal, esperam uma cobrança previsível baseada no consumo de recursos. Sobretaxas ocultas e baseadas em conteúdo minam fundamentalmente essa expectativa, exigindo uma reavaliação completa das práticas de cobrança de AI em toda a indústria.

Como Proteger Sua Carteira de Contas de AI

Navegar pela cobrança de AI API exige vigilância proativa de desenvolvedores e empresas. O recente incidente da Anthropic, onde "Hermes.md" em uma Git commit message desencadeou sobretaxas inesperadas, ressalta a necessidade crítica de estratégias robustas de gestão de custos. Os desenvolvedores não podem confiar apenas em resumos de painel, como o enganoso "showing 13%" de uso que inicialmente ocultou uma sobretaxa de $200.

Implemente limites rígidos de gastos diretamente através do console do seu provedor de AI. A maioria das plataformas, incluindo a Anthropic, oferece controles granulares para limitar despesas mensais ou diárias, prevenindo custos descontrolados. Combine esses limites com alertas de cobrança agressivos, configurando notificações em múltiplos limites — por exemplo, em 50%, 75% e 90% do seu orçamento.

Audite regularmente os registros de uso detalhados, não apenas os painéis de resumo. O trabalho de detetive metódico do usuário do Reddit, rastreando a anomalia até uma string de prompt específica, exemplifica essa necessidade. Examine os registros em busca de contagens de tokens inesperadas, padrões incomuns de chamadas de API ou picos de custo repentinos que não se alinham com o uso esperado. Esta revisão proativa identifica discrepâncias antes de impactar seu resultado final.

Utilize ambientes isolados ou chaves de API separadas para testar novos prompts, modelos experimentais ou tarefas de alto volume. Isolar essas atividades garante que qualquer comportamento de cobrança inesperado permaneça contido em um segmento específico e facilmente monitorado do seu uso. Essa prática simplifica a atribuição de custos e permite a revogação imediata da chave se surgir um problema.

Compreender os fatores sutis que influenciam os custos da AI é fundamental. À medida que os modelos de AI evoluem, o mesmo acontece com seus mecanismos internos e estruturas de preços. Para mais informações sobre como os provedores de AI gerenciam essas complexidades, incluindo mudanças nos "harnesses" internos e nas instruções de operação que afetam o desempenho e o custo, considere recursos como Mistério resolvido: Anthropic revela mudanças nos harnesses e instruções de operação de Claude que provavelmente causaram degradação | VentureBeat.

Em última análise, a confiança na faturação de AI permanece tênue. Os desenvolvedores devem assumir a responsabilidade de monitorar cada byte e token. Estabeleça protocolos internos claros para o gerenciamento de chaves de API, design de prompts e análise contínua de custos. Essas medidas, coletivamente, protegem sua carteira da natureza imprevisível das cobranças de serviços de AI.

O Futuro dos Preços Justos de AI

Os futuros modelos de faturação de AI exigem uma mudança fundamental em direção à transparência radical e à previsibilidade do usuário. Os desenvolvedores precisam de documentação clara e inequívoca detalhando cada fator que influencia os custos, indo além da simples contagem de tokens. Cobranças ocultas, acionadas por conteúdo de prompt específico ou mecanismos de detecção internos como a detecção defeituosa do harness "Hermes.md" da Anthropic, corroem a confiança e dificultam a inovação.

Padrões da indústria devem surgir, obrigando os provedores a comunicar todas as nuances de preços antecipadamente. Isso inclui relatórios de uso granulares que reflitam com precisão o consumo, prevenindo cenários onde um plano máximo de US$ 200 é excedido, apesar de os painéis mostrarem apenas 13% de uso semanal. Tal clareza garante que os usuários entendam seus compromissos financeiros antes da implantação.

Existe uma tensão entre a precificação direta baseada em tokens e modelos mais complexos, baseados em valor. Embora a contagem de tokens ofereça simplicidade, ela pode não capturar totalmente a intensidade de recursos de recursos de AI especializados ou "third-party harnesses". Se os provedores optarem por preços diferenciais com base no conteúdo ou valor percebido, eles devem implementá-lo com transparência inabalável, definindo claramente o que aciona taxas mais altas e por quê.

Em última análise, prevenir futuros incidentes do "Anthropic's Costly Keyword Bug" exige um compromisso duplo. Os provedores de AI devem priorizar a confiança do usuário, fornecendo explicações de faturação abrangentes e trilhas de auditoria. Concomitantemente, os usuários devem permanecer vigilantes, examinando as faturas da API, exigindo detalhamentos e defendendo a clareza de *todos* os provedores de serviços de AI. Esse esforço coletivo moldará um futuro mais equitativo e compreensível para o consumo de AI.

Perguntas Frequentes

Qual foi o bug 'Hermes.md' da Anthropic?

Foi um problema de faturação onde qualquer prompt contendo a string em maiúsculas 'Hermes.md' acionava cobranças de uso excessivo na conta Claude de um usuário, mesmo que o arquivo não existisse.

Como a Anthropic respondeu a este problema de faturação?

A Anthropic reconheceu que o problema era real, descreveu-o como um bug em seu sistema de 'third-party harness detection' e ofereceu um reembolso total ao usuário afetado.

O que é um 'third-party harness' no contexto de AI?

Um third-party harness é uma estrutura ou ferramenta de software usada para avaliar, testar ou interagir com modelos de AI de forma estruturada. Algumas empresas de AI veem isso como um tipo distinto de uso.

Como posso verificar se fui afetado por este bug?

Revise seus registros de uso e extratos de faturação da Anthropic em busca de picos inesperados. Se você suspeitar de um problema, especialmente se seu trabalho envolver arquivos ou strings com nomes semelhantes, entre em contato diretamente com o suporte da Anthropic.

Perguntas frequentes

Um 'Bug' ou uma Funcionalidade que Deu Errado?
See article for details.
Sua IA Está Lendo Seus Recibos?
See article for details.
Qual foi o bug 'Hermes.md' da Anthropic?
Foi um problema de faturação onde qualquer prompt contendo a string em maiúsculas 'Hermes.md' acionava cobranças de uso excessivo na conta Claude de um usuário, mesmo que o arquivo não existisse.
Como a Anthropic respondeu a este problema de faturação?
A Anthropic reconheceu que o problema era real, descreveu-o como um bug em seu sistema de 'third-party harness detection' e ofereceu um reembolso total ao usuário afetado.
O que é um 'third-party harness' no contexto de AI?
Um third-party harness é uma estrutura ou ferramenta de software usada para avaliar, testar ou interagir com modelos de AI de forma estruturada. Algumas empresas de AI veem isso como um tipo distinto de uso.
Como posso verificar se fui afetado por este bug?
Revise seus registros de uso e extratos de faturação da Anthropic em busca de picos inesperados. Se você suspeitar de um problema, especialmente se seu trabalho envolver arquivos ou strings com nomes semelhantes, entre em contato diretamente com o suporte da Anthropic.
🚀Descubra mais

Fique à frente da curva da IA

Descubra as melhores ferramentas de IA, agentes e servidores MCP selecionados pela Stork.AI.

Voltar a todas as publicações