Resumo / Pontos-chave
A Guerra dos Agentes de IA Acaba de Ganhar um Novo Líder
O desenvolvimento de agentes de IA tornou-se uma corrida furiosa, com cada grande interveniente a lutar pela dominância. Enquanto empresas como a OpenAI impulsionam as suas próprias capacidades de agente, a Anthropic acaba de redefinir o panorama, indo além dos SDKs tradicionais centrados no desenvolvedor com uma nova oferta revolucionária. Esta mudança estratégica altera fundamentalmente a forma como empresas e indivíduos irão implementar a automação inteligente.
Historicamente, construir agentes de IA fiáveis e prontos para produção envolvia uma complexidade significativa. Os desenvolvedores debatiam-se com a seleção de hardware, configuração de modelos e gestão meticulosa de protocolos de segurança. As plataformas frequentemente deixavam o trabalho pesado de infraestrutura e implementação para o utilizador final, criando barreiras à adoção generalizada e à operação fiável. Esta abordagem de "agente do curioso", semelhante à gestão de uma distribuição Linux, limitava a escalabilidade e a facilidade de uso.
A ousada contra-jogada da Anthropic são os Managed Agents, apresentados como a "próxima evolução após o Agent SDK". Esta oferta inovadora permite aos utilizadores criar agentes de IA personalizados sem escrever uma única linha de código, confiando em vez disso em prompts de linguagem natural. Estes agentes correm inteiramente na infraestrutura gerida da própria Anthropic, um ambiente robusto, seguro e escalável, concebido especificamente para a prontidão de produção. É uma mudança profunda em direção a um paradigma totalmente gerido e no-code.
Esta abordagem estabelece um contraste acentuado com o panorama competitivo existente. Onde ferramentas como o OpenClaw exigem que os utilizadores escolham o seu próprio hardware e modelos, e gerenciem a segurança, os Managed Agents da Anthropic emulam a experiência simplificada da Apple. A Anthropic assume total responsabilidade pela infraestrutura subjacente, segurança e orquestração complexa, libertando os criadores para se concentrarem unicamente no propósito central do agente e nos resultados desejados. Isto reduz drasticamente a barreira de entrada.
A "arquitetura muito interessante" da Anthropic, apresentando elementos como o harness, session e orchestrator, sustenta a promessa de implementações seguras, escaláveis e prontas para produção. Este design integrado garante que os agentes não são apenas fáceis de construir, mas também inerentemente robustos e capazes de lidar com tarefas do mundo real. Desde responder a questões de clientes com base numa base de conhecimento até realizar pesquisas regulares e entregar resultados via Slack, os Managed Agents permitem automação sofisticada sem o dispendioso overhead operacional que tem travado outras iniciativas de agentes.
Crie a Sua Própria Força de Trabalho de IA, Sem Código Necessário
Os Managed Agents da Anthropic introduzem uma mudança de paradigma na criação de força de trabalho de IA, permitindo aos utilizadores forjar agentes poderosos e personalizados usando prompts simples em inglês em vez de código complexo. Esta plataforma inovadora simplifica radicalmente a implementação de assistentes de IA sofisticados, tornando capacidades avançadas acessíveis a um público muito mais vasto. Os utilizadores podem definir o propósito, comportamentos e ferramentas de um agente com linguagem natural, reduzindo drasticamente a barreira de entrada para a integração de IA.
Duas vias distintas facilitam a construção de agentes. Os indivíduos podem aproveitar a interface de usuário intuitiva do Claude Console, inserindo diretamente comandos em linguagem natural para definir os parâmetros operacionais e as ferramentas integradas de seu agente. Para desenvolvedores que buscam controle programático, a habilidade Managed Agent dentro do Claude Code oferece uma alternativa robusta. Esta habilidade, especificamente projetada para usuários de TypeScript, integra-se ao Claude SDK para roteirizar a criação de agentes, necessitando de uma versão específica do Claude Code ou superior para funcionalidade.
Uma vantagem crucial é a infraestrutura totalmente gerenciada da Anthropic. Esses agentes rodam inteiramente na arquitetura segura, escalável e pronta para produção da Anthropic, removendo completamente o significativo fardo de DevOps do usuário. Ao contrário dos "agentes de curiosos" que exigem que os usuários gerenciem seu próprio hardware, seleção de modelos e segurança intrincada, a Anthropic lida com todas as complexidades subjacentes. Essa abordagem "estilo Apple" garante que os agentes sejam inerentemente confiáveis e prontos para produção desde o início, permitindo que os criadores se concentrem puramente na função central de seu agente.
Esses agentes versáteis demonstram notável utilidade em diversas aplicações. Eles podem funcionar como bots inteligentes de suporte ao cliente, respondendo habilmente a consultas ao extrair informações de extensas bases de conhecimento. Além do suporte, eles se destacam como assistentes de pesquisa automatizados, capazes de realizar raspagem regular de dados e entregar insights direcionados diretamente a plataformas como o Slack em horários predeterminados. Um exemplo convincente envolveu um agente médico pessoal, configurado para ler e interpretar arquivos markdown de um repositório privado do GitHub contendo dados de saúde, e então retransmitir informações médicas e recomendações específicas via Slack. Isso demonstra sua capacidade de se integrar perfeitamente com fontes de dados externas e plataformas de comunicação, oferecendo assistência personalizada e proativa em vários domínios.
A Divisão 'Apple vs. Linux' em Agentes de IA
Os novos Claude Managed Agents da Anthropic abrem um caminho distinto no crescente cenário de agentes de IA, ecoando a clássica divisão "Apple vs. Linux" em sistemas operacionais. Essas soluções gerenciadas incorporam a abordagem Apple: um ecossistema curado, seguro e fácil de usar, onde a Anthropic lida com toda a infraestrutura subjacente, desde a orquestração até o gerenciamento de sessões. Os usuários simplesmente articulam a funcionalidade desejada de seu agente em inglês simples, contornando desafios complexos de codificação ou implantação, garantindo que os agentes sejam escaláveis, prontos para produção e inerentemente seguros na infraestrutura dedicada da Anthropic.
Isso contrasta fortemente com alternativas de código aberto como o OpenClaw, que incorporam a filosofia Linux. O OpenClaw atende a curiosos e desenvolvedores que preferem controle máximo, exigindo que os usuários provisionem seu próprio hardware (como um VPS), integrem modelos preferidos e gerenciem todos os protocolos de segurança por conta própria. Essa abordagem oferece personalização incomparável e liberdade para escolher componentes, mas essa flexibilidade vem com o custo de exigir profunda expertise técnica e gerenciamento prático para implantação e manutenção.
Significativamente, a Anthropic restringiu recentemente o uso de assinaturas Claude com ferramentas de terceiros, incluindo o OpenClaw. Essa medida, amplamente vista como estratégica, parece diretamente ligada ao lançamento dos Managed Agents, solidificando o impulso da Anthropic em direção a uma plataforma rigidamente controlada e integrada. A decisão sublinha um esforço deliberado para guiar os usuários para seu ambiente gerenciado, garantindo uma experiência consistente e segura diretamente dentro de seu ecossistema.
As compensações são claras para qualquer pessoa que esteja a construir uma AI workforce. Managed Agents priorizam a facilidade de uso, segurança robusta e escalabilidade pronta a usar, tornando-os ideais para empresas que procuram soluções prontas para produção sem a sobrecarga da gestão de infraestrutura. Para mais informações técnicas sobre esta arquitetura, explore Introducing Claude Managed Agents: everything you need to build & deploy agents at scale. Por outro lado, plataformas como OpenClaw oferecem flexibilidade máxima, permitindo que os desenvolvedores escolham qualquer modelo, personalizem cada parâmetro e mantenham controlo granular sobre o ambiente do seu agente, desde que possuam o conhecimento técnico necessário. Esta divergência estratégica força uma decisão crítica para os desenvolvedores: conveniência e segurança versus autonomia e personalização absolutas.
Do Repo à Resposta: Uma Construção de Agent Build no Mundo Real
Uma demonstração prática rapidamente iluminou o poder por trás dos Managed Agents da Anthropic. O vídeo mostrou a construção de um agente médico altamente personalizado, concebido para interagir com os dados de saúde privados de um utilizador. Este agente conectou três componentes distintos: um GitHub repository seguro e privado que aloja registos médicos sensíveis, uma Slack integration que serve como interface de utilizador intuitiva, e o próprio Claude Managed Agent, atuando como o intermediário inteligente.
A construção deste agente personalizado não exigiu codificação complexa, baseando-se em prompts de linguagem natural através do Claude Code SDK. O processo de integração começou por definir as capacidades do agente, concedendo explicitamente acesso a ferramentas como `read` e `grep` para extrair informações de markdown files dentro do GitHub repo. Crucialmente, a configuração restringiu ações como `write`, `edit` ou `bash` para garantir a integridade e segurança dos dados, impedindo que o agente alterasse quaisquer registos médicos.
Os utilizadores especificaram a persona do agente, instruindo-o a "compreender a informação como um médico". Para o modelo de IA subjacente, o criador optou por Sonnet em vez do mais caro Opus, equilibrando capacidade com eficiência de custos. O processo de configuração gerou um environment ID e um agent ID, confirmando a sua implementação na infraestrutura segura da Anthropic, visível dentro da Claude Console.
Com o agente configurado, o passo final envolveu a sua integração com o Slack. Após configurar uma Slack app e preencher as environment variables, o agente tornou-se acessível diretamente através da plataforma de mensagens. Uma consulta inicial, "que modelo estás a usar?", provocou uma resposta educada e autoconsciente: "Sou Claude, feito pela Anthropic... Há algo médico em que possa ajudar?" Isto confirmou a prontidão do agente e a sua compreensão do seu papel especializado.
O verdadeiro teste veio com uma consulta complexa e pessoal: "com base no que sabes sobre mim medicamente, posso comer lulas?" O agente entrou em ação, utilizando as suas ferramentas `read` e `grep` definidas para vasculhar o GitHub repository privado. Segundos depois, entregou uma resposta contextual e inteligente, demonstrando a sua capacidade de processar dados pessoais intrincados e fornecer insights relevantes através de uma Slack interface amigável.
Dentro da Máquina: Harness, Session & Orchestrator
Os Managed Agents da Anthropic operam numa arquitetura sofisticada e proprietária, concebida para um desempenho robusto e escalável. Este sistema separa engenhosamente as preocupações em três componentes centrais distintos: o Harness, a Session e o Orchestrator. Juntos, estes elementos permitem que os agentes de IA seguros e prontos para produção funcionem perfeitamente na infraestrutura gerida da Anthropic.
Harness serve como o motor de execução do agente, um roteador sem estado que executa o Claude model. Este componente é responsável por processar requisições e executar chamadas de ferramentas dentro de um ambiente sandbox estritamente controlado. Seu design sem estado garante que instâncias individuais do Harness permaneçam efêmeras e facilmente substituíveis, aumentando a estabilidade e a segurança do sistema.
Crucialmente, o Harness nunca armazena memória de longo prazo. Em vez disso, um componente Session separado mantém o histórico conversacional e o estado do agente. Este log somente de adição registra todas as interações, servindo como a memória persistente do sistema, totalmente desacoplada da lógica de execução. Ao isolar a memória, a Anthropic previne vazamento de dados entre diferentes execuções de agentes e garante uma integridade de dados robusta.
Supervisionando toda a operação está o Orchestrator, o controlador mestre para Managed Agents. Este componente monitora a saúde e a disponibilidade das instâncias do Harness, provisionando dinamicamente novas conforme necessário. Se um Harness falhar ou encontrar um problema, o Orchestrator rapidamente inicia uma nova instância, garantindo a operação contínua do agente e alta resiliência.
Esta separação arquitetônica oferece vantagens significativas. Instâncias de Harness sem estado podem escalar horizontalmente com facilidade, lidando com cargas aumentadas sem comprometer o desempenho. A Session isolada garante acesso à memória consistente e seguro, mesmo através de múltiplas reinicializações do Harness. Enquanto isso, o Orchestrator oferece uma capacidade inerente de autocorreção, tornando os agentes excepcionalmente confiáveis para aplicações críticas.
A abordagem da Anthropic simplifica radicalmente a implantação de agentes, abstraindo o gerenciamento complexo de infraestrutura. Desenvolvedores simplesmente definem o comportamento do agente em linguagem natural, confiantes de que a arquitetura subjacente de Harness, Session e Orchestrator oferece uma base segura, escalável e resiliente. Este design robusto sustenta a simplicidade e confiabilidade "Apple-like" que a Anthropic promete para seus Managed Agents.
Fort Knox Security para os Segredos da Sua IA
Ambientes de produção exigem segurança inabalável, e os Managed Agents da Anthropic oferecem um diferencial crucial: um modelo de segurança meticulosamente projetado. Esta arquitetura aborda diretamente o desafio crítico de salvaguardar credenciais sensíveis, uma vulnerabilidade comum em implantações de IA personalizadas. As empresas podem implantar agentes com confiança, sabendo que seus segredos operacionais permanecem protegidos contra acesso não autorizado.
O cerne desta estrutura de segurança é o isolamento rigoroso de credenciais sensíveis. API keys, database tokens e outros segredos de acesso vitais residem em cofres seguros, completamente separados do próprio modelo de IA e da lógica central do agente. Esta compartimentalização fundamental impede que a IA acesse, registre ou exponha inadvertidamente essas informações críticas ao sistema mais amplo.
Managed Agents empregam um mecanismo sofisticado de acesso a credenciais just-in-time. O sistema recupera e usa chaves de autenticação apenas no momento preciso em que são necessárias, especificamente dentro de uma chamada de ferramenta rigidamente controlada ou de um ambiente de execução sandboxed. Crucialmente, essas credenciais nunca são expostas ao Harness do agente, o componente de coordenação central, reduzindo significativamente a superfície de ataque e o potencial de comprometimento.
Contraste esta abordagem robusta com a prática prevalente e menos segura de incorporar segredos diretamente em arquivos .env num servidor local ou codificá-los diretamente em bases de código de aplicações. Tais métodos aumentam inerentemente o risco, tornando os sistemas vulneráveis a exposição acidental, fugas de controlo de versão ou exfiltração maliciosa se o ambiente de acolhimento for comprometido. A infraestrutura gerida da Anthropic elimina este vetor perigoso ao abstrair completamente a gestão de credenciais.
Esta postura de segurança abrangente sustenta a promessa de agentes de IA verdadeiramente prontos para produção, especialmente para indústrias altamente regulamentadas. Ao integrar a gestão avançada de credenciais diretamente na plataforma, a Anthropic reduz drasticamente a carga operacional sobre os desenvolvedores e equipas de segurança, aumentando a confiabilidade das implementações de agentes. Utilizadores curiosos sobre as implicações económicas mais amplas, incluindo os custos de sessão e token para estas operações seguras, podem encontrar informações detalhadas em Pricing - Claude API Docs. Este design garante que as capacidades dos agentes se expandem sem comprometer a integridade dos dados, a segurança do sistema ou a conformidade regulamentar.
A Letra Miúda: Preços, Plataformas e Paywalls
A deceção imediata para muitos utilizadores decorre do modelo de preços. Os Managed Agents da Anthropic operam estritamente como um produto apenas de API, tornando as subscrições existentes do Claude Pro, Max ou Team inteiramente irrelevantes. Os utilizadores não podem aproveitar os seus limites pré-pagos ou acesso incluído; cada interação com um Managed Agent incorre em novas e separadas cobranças, criando efetivamente um paywall distinto para esta funcionalidade avançada.
Esta abordagem centrada na API significa que os desenvolvedores enfrentam uma estrutura de custos de dois níveis para as suas implementações de agentes. Primeiro, todos os tokens consumidos por um Managed Agent — seja para processar prompts, aceder a ferramentas ou gerar respostas — aderem ao modelo de preços padrão da Claude API. Isso inclui tokens de entrada e saída, que podem acumular-se rapidamente dependendo da complexidade do agente e do volume de tarefas. Segundo, a Anthropic cobra uma taxa adicional por sessões de agente ativas: 8 cêntimos por hora de sessão. Crucialmente, esta cobrança horária aplica-se apenas quando uma sessão está ativamente em execução; sessões inativas, mesmo que configuradas, não incorrem em custos, oferecendo algum alívio para casos de uso infrequentes ou orientados por eventos.
Além das considerações financeiras, a plataforma apresenta atualmente limitações notáveis nas suas capacidades de integração prontas a usar. Ao contrário de plataformas mais abertas e impulsionadas pela comunidade que ostentam uma vasta gama de conectores pré-construídos, os Managed Agents da Anthropic oferecem menos integrações imediatas para vários serviços externos. Isso significa que a integração com ferramentas de terceiros não suportadas, sistemas legados ou bases de dados internas proprietárias frequentemente necessita de desenvolvimento de código personalizado.
Apesar da promessa de "não é necessário código" para a criação de agentes centrais, estender o alcance de um Managed Agent para além do ambiente curado da Anthropic ainda exige experiência de desenvolvedor. Organizações que visam um ecossistema amplo de serviços conectados podem-se encontrar a escrever código de ligação significativo ou a desenvolver APIs personalizadas para preencher estas lacunas de integração. Isso posiciona os Managed Agents como uma solução poderosa e segura para tarefas específicas dentro do ecossistema da Anthropic, mas que requer uma análise cuidadosa de custo-benefício para implementações empresariais complexas onde a conectividade externa extensiva é primordial. O estado atual da plataforma prioriza a segurança e a simplicidade gerida em detrimento da integração universal plug-and-play.
Estes Agentes Estão Realmente Prontos para Produção?
A Anthropic posiciona seus Managed Agents como inerentemente prontos para produção, projetados para escala e confiabilidade de nível empresarial desde o primeiro dia. Essa afirmação ambiciosa baseia-se em uma arquitetura meticulosamente projetada que aborda diretamente os desafios operacionais comuns para implantações de IA. Ao contrário dos frameworks de agentes tradicionais auto-hospedados, a Anthropic gerencia completamente a infraestrutura subjacente, abstraindo preocupações complexas de implantação, segurança e escalabilidade para os desenvolvedores.
A robustez deriva fundamentalmente da clara separação de preocupações dentro da arquitetura do agente. O Harness, responsável pela execução do código do agente, opera como um componente sem estado. Essa escolha de design crítica aprimora dramaticamente a tolerância a falhas: se uma instância do Harness encontrar um problema, o sistema pode iniciar uma nova instância sem qualquer perda de contexto operacional crítico ou progresso de tarefa em andamento.
O estado do agente, abrangendo todo o histórico conversacional, interações com ferramentas e dados ambientais, persiste independentemente dentro da Session. Essas sessões isoladas mantêm logs abrangentes e com carimbo de data/hora, garantindo trilhas de auditoria robustas e simplificando significativamente os processos de depuração. Essa clara delimitação entre execução efêmera e armazenamento de estado persistente permite recuperação rápida, desempenho consistente e comportamento previsível em cargas de trabalho diversas e exigentes.
O Orchestrator reforça ainda mais a escalabilidade horizontal, atuando como o coordenador central para todos os Managed Agents. Este componente inteligente gerencia e distribui dinamicamente as cargas de trabalho dos agentes, iniciando eficientemente novos Harnesses e Sessions conforme a demanda do usuário ou as mudanças ambientais ditam. Sua capacidade inerente de escalabilidade horizontal significa que a plataforma pode acomodar sem esforço um grande número de usuários simultâneos e ambientes complexos, atendendo tanto a desenvolvedores individuais quanto a aplicações empresariais em larga escala.
Os desenvolvedores obtêm visibilidade e controle operacional cruciais através do Claude Console. Este painel centralizado fornece monitoramento em tempo real de sessões ativas, oferecendo logs granulares e detalhados de interações do agente e uso de ferramentas. O Console permite a rápida identificação de problemas, depuração precisa e a capacidade de iterar em versões de agentes de maneira controlada e observável, acelerando o desenvolvimento e o refinamento de aplicações de IA robustas.
Por que isso não será mais um fracasso da 'GPT Store'
Ao contrário dos GPTs iniciais da OpenAI e de sua loja subsequente, que rapidamente perderam um impulso significativo de desenvolvedores e usuários, os Managed Agents da Anthropic adotam uma estratégia fundamentalmente diferente. A OpenAI ofereceu um mercado extenso e muitas vezes caótico de agentes de propósito geral, muitos dos quais careciam de funcionalidade robusta ou utilidade comercial clara. Isso levou a uma percepção de novidade em vez de uma ferramenta indispensável.
A Anthropic aborda diretamente essas deficiências priorizando infraestrutura gerenciada, segurança de nível empresarial e um caminho claro para a implantação em produção. Os agentes executam inteiramente no backend seguro da Anthropic, removendo o ônus de hospedar, escalar e manter ambientes complexos para os desenvolvedores. Esse compromisso com uma base segura e confiável é um diferencial crítico para empresas que buscam integrar a IA em suas operações principais. Para mais detalhes sobre a arquitetura, consulte a visão geral dos Claude Managed Agents - Claude API Docs.
A facilidade de criação da plataforma a distingue ainda mais. Os usuários constroem agentes poderosos e personalizados usando prompts simples em inglês diretamente através do Claude Console ou via a habilidade Managed Agent no Claude Code, sem exigir codificação complexa. Isso democratiza a criação de agentes, permitindo que usuários de negócios não técnicos implementem rapidamente soluções de IA adaptadas a tarefas específicas, ecoando a analogia 'Apple' para uma experiência de usuário curada em comparação com a abordagem 'Linux' de configurações autogerenciadas.
Crucialmente, os Managed Agents são projetados como ferramentas orientadas a tarefas, não como conversadores abertos. Eles integram habilidades específicas e acessam ferramentas predefinidas para executar ações precisas, como ler de repositórios privados do GitHub, processar dados ou interagir com o Slack. Isso contrasta fortemente com o escopo muitas vezes ambíguo dos GPTs, tornando a oferta da Anthropic muito mais prática e imediatamente valiosa para aplicações e fluxos de trabalho de negócios direcionados.
Seu Próximo Passo: Você Deve Apostar na Anthropic?
Os Claude Managed Agents da Anthropic oferecem uma proposta atraente para usuários específicos, definindo um caminho mais claro para a integração prática da IA. Para organizações que exigem implantações de agentes seguras e escaláveis sem uma equipe dedicada de DevOps, esta plataforma representa um avanço significativo. Empresas que precisam prototipar e implantar rapidamente aplicações baseadas em agentes encontrarão imenso valor em sua abordagem sem código.
Os usuários ideais incluem empresas que priorizam a segurança de dados e a conformidade, aproveitando a infraestrutura robusta da Anthropic. Equipes com recursos limitados de engenharia de IA agora podem desenvolver fluxos de trabalho complexos de agentes usando prompts simples em inglês, contornando a necessidade de codificação extensa ou gerenciamento especializado de hardware. Isso democratiza o acesso a capacidades sofisticadas de IA para uma gama mais ampla de casos de uso, desde a automação do atendimento ao cliente até bots de pesquisa internos.
No entanto, os Managed Agents não são para todos. Usuários que exigem controle granular sobre parâmetros do modelo, configurações de hardware ou configurações de ambiente personalizadas podem achar a abstração gerenciada muito restritiva. Desenvolvedores que trabalham em ecossistemas ou em plataformas ainda não suportadas de forma nativa pela Anthropic também devem ter cautela, pois as integrações atuais permanecem um tanto limitadas.
Além disso, o modelo de precificação apenas por API significa que as assinaturas existentes do Claude não se aplicam, adicionando uma consideração de custo separada para o uso de tokens e horas de sessão. Essa estrutura visa implantações em escala de produção, em vez de experimentação casual, influenciando a adoção por equipes menores com orçamentos limitados ou desenvolvedores individuais.
Em última análise, a abordagem gerenciada da Anthropic pode remodelar radicalmente como as organizações implementam a IA. Ao abstrair as complexidades da infraestrutura e enfatizar a segurança e a escalabilidade desde o primeiro dia, ela muda o foco da implementação técnica para a aplicação estratégica. Este modelo promete acelerar a implantação de agentes inteligentes, tornando a IA avançada uma ferramenta mais acessível e confiável para o futuro empresarial.
Perguntas Frequentes
O que são Claude Managed Agents?
Claude Managed Agents é um serviço da Anthropic que permite aos usuários criar, implantar e gerenciar agentes de IA personalizados na infraestrutura da Anthropic sem escrever código, usando prompts de linguagem natural.
Como os Managed Agents diferem de ferramentas como OpenClaw?
Managed Agents são uma solução totalmente gerenciada, 'tipo Apple', onde a Anthropic cuida da infraestrutura, segurança e escalabilidade. OpenClaw é mais como 'Linux' — uma ferramenta de código aberto, para entusiastas, que exige que os usuários gerenciem seu próprio hardware, modelos e segurança.
Como os Claude Managed Agents são precificados?
O preço é baseado em dois componentes: uso de tokens da API para o modelo subjacente Claude (por exemplo, Sonnet ou Opus) e uma taxa por hora para sessões de agente ativas. É separado das assinaturas Claude Pro.
Preciso ser um desenvolvedor para usar Managed Agents?
Não. Você pode criar e gerenciar agentes inteiramente através da Claude Console UI usando linguagem natural. No entanto, para integrações mais complexas, você pode usar a Claude Code skill e o TypeScript SDK.