TL;DR / Key Takeaways
O Modelo de IA que o GitHub Não Anunciou
A GitHub lançou um novo codificador de IA no mundo em 10 de novembro de 2025, e quase ninguém percebeu. Enterrado em uma entrada de registro de alterações de rotina, a empresa anunciou que o Raptor mini estava “sendo lançado em uma prévia pública” para o GitHub Copilot, disponível em um menu suspenso no Visual Studio Code. Sem apresentação principal, sem aprofundamento em blog, apenas um aviso em um parágrafo para o que pode ser o modelo mais importante da GitHub até agora.
O silêncio em torno do lançamento parece ser intencional. O GitHub lançou o Raptor mini sem benchmarks públicos, sem cartão de modelo e sem um artigo técnico explicando como esse GPT‑5 mini ajustado se compara aos modelos existentes do GitHub Copilot ou a rivais como Claude. Os desenvolvedores receberam apenas uma promessa vaga de “completação de código rápida e precisa e explicações” e uma nota de que ele suporta o modo agente e todos os tipos de interação do GitHub Copilot.
Contrastando isso com a forma como os concorrentes agem. Quando o Google lança uma nova variante do Gemini ou a OpenAI atualiza o GPT-5, eles realizam transmissões ao vivo que duram várias horas, publicam folhas de especificações densas e inundam as redes sociais com demonstrações selecionadas e gráficos de classificação. O Raptor mini, por sua vez, chegou como uma versão noturna: sem vídeo promocional, sem citações de parceiros escolhidos à dedo, apenas "ele agora existe e você pode selecioná-lo."
Esse perfil baixo cria uma espécie estranha de tensão. No papel, o Raptor mini expõe um hardware sério: uma janela de contexto de aproximadamente 264.000 tokens, um limite de saída de 64.000 tokens e suporte total para chamada de ferramentas, edições em múltiplos arquivos e fluxos de trabalho de agentes dentro do VS Code. No entanto, o GitHub recusou-se a publicar ao menos um gráfico de latência, um gráfico de precisão ou uma comparação com seus próprios modelos maiores.
Em vez de benchmarks, os primeiros adotantes recebem um desafio. Se você quer saber do que o Raptor mini é capaz, precisa apontá-lo para uma base de código real e descobrir da maneira mais difícil. Foi exatamente isso que a equipe da Better Stack fez, pedindo ao modelo para gerar um painel de rastreamento de satélites em tempo real do zero e cronometrando a velocidade com que conseguia montar uma pilha funcional.
A estreia silenciosa do Raptor mini transforma o GitHub Copilot em uma espécie de experimento caixa-preta. Com o GitHub se recusando a se gabar em seu nome, a única maneira de entender este modelo é tratá-lo como um novo funcionário: dar a ele trabalho real, inspecionar as diferenças e ver se o mistério é justificado.
Decodificando o 'Mini' no Raptor Mini
Mini, na nova linha de modelos do GitHub, não significa brinquedo. Oficialmente, Raptor mini é uma variante GPT-5 mini ajustada, treinada para programação e escrita de propósito geral, com o GitHub posicionando-o como um motor otimizado para velocidade, oferecendo conclusões e explicações rápidas e precisas dentro do GitHub Copilot. Ele suporta todos os modos do GitHub Copilot no Visual Studio Code: chat, sugestões inline, edição e fluxos de trabalho completos de agente.
O escasso registro de alterações do GitHub apenas confirma que o Raptor mini é “um modelo mini GPT-5 ajustado para codificação de propósito geral”, mas outros detalhes vazaram por meio de conversas e podcasts. Nos bastidores, ele possui uma janela de contexto de aproximadamente 264.000 tokens e uma janela de saída de 64.000 tokens, números que o aproximam mais de modelos pesados do que da marca de “mini” que os desenvolvedores esperam.
Julia Casper, da equipe do VS Code, tentou redefinir essas expectativas. “Lembre-se de que é mini”, disse ela em um podcast da Microsoft, enfatizando que o modelo é otimizado para velocidade e para “tarefas menores, coisas que não são tão complexas”, onde você deseja feedback instantâneo em vez de um design de sistema profundo. Para refatorações extensas ou arquiteturas do zero, ela ainda direciona os desenvolvedores para famílias maiores, como Claude ou o GPT‑5 completo.
O próprio nome é um exercício de branding sobreposto a um codinome interno bastante convencional. A Casper descreve Raptor como apenas um codinome escolhido para se encaixar em um tema de “grupo de aves” que o GitHub usa para seus modelos e serviços. O marketing então insistiu por algo ligeiramente misterioso e temático de animais, optando por “Raptor mini” em vez de outro SKU alfanumérico seco.
Os desenvolvedores viram a palavra mini e assumiram um modelo de sidekick: bom para docstrings, testes unitários, talvez uma regex rápida. No entanto, os primeiros relatos práticos descrevem algo mais próximo de uma ferramenta padrão do que de um sidecar, especialmente para edições do dia a dia e trabalho em funcionalidades.
Essa discrepância entre rótulo e realidade se mostra claramente em testes comunitários. A equipe da Better Stack, por exemplo, pediu ao Raptor mini para construir um painel de satélite em tempo real do zero, conectando uma API de terceiros, backend em Express, frontend em JavaScript puro, CSS e até mesmo um globo 3D com Three.js, e entregou um protótipo funcional em cerca de 45 segundos. Na prática, o Mini parece mais “otimizado para latência” do que “limitado.”
As Especificações Que Desafiam Seu Nome
Mini branding colide diretamente com números como uma janela de contexto de 264.000 tokens. Isso é aproximadamente a capacidade de absorver centenas de páginas de código, documentos e logs de uma só vez, suficiente para conter um monorepo de médio porte ou um stack completo de React/Node, além de seus arquivos README e referências de API em um único prompt. Para os desenvolvedores, isso significa que o GitHub Copilot pode raciocinar sobre uma funcionalidade através do front end, back end, testes e configuração sem perder constantemente o contexto anterior.
Uma janela tão grande muda a forma como você interage com códigos legados. Você pode inserir um serviço Java de 20.000 linhas, uma configuração de webpack complicada e um teste de integração que falha, e então pedir para o Raptor mini rastrear um bug do início ao fim. Em vez de colar pequenos trechos, você trata o modelo como um novo funcionário que passou uma semana lendo todo o seu repositório.
O tamanho da saída é igualmente importante. Com uma janela de saída de 64.000 tokens, o Raptor mini pode gerar dezenas de milhares de linhas de código ou diferenças de uma só vez. Isso desbloqueia operações que anteriormente exigiam várias passagens, mesclas e a intervenção humana.
Refatorações em grande escala se tornam, de repente, prompts de uma só vez. Você pode pedir para: - Migrar todas as classes em um pacote de callbacks para async/await - Substituir uma camada de registro personalizada pelo OpenTelemetry em serviços - Gerar suítes de testes completas para múltiplos módulos em uma única execução
Esses não são "mini" workload de brinquedo, e é aí que a marca começa a parecer intencionalmente enganosa. A mensagem oficial retrata o Raptor mini como otimizado para velocidade e "tarefas menores", no entanto, seu contexto bruto e especificações de saída rivalizam ou superam muitos modelos de destaque. O nome parece menos um limite de capacidade e mais um movimento de posicionamento para evitar canibalizar opções mais pesadas e caras.
O modo agente é onde essas especificações deixam de ser números abstratos e começam a parecer uma nova primitiva do IDE. Com todo o espaço de trabalho carregado em um contexto de 264k, o agente pode planejar edições de múltiplos passos, abrir e modificar dezenas de arquivos, atualizar imports e regenerar testes, enquanto preserva uma visão coerente do projeto. A edição de múltiplos arquivos deixa de ser uma dança frágil, arquivo por arquivo, e se torna uma operação única e consistente coordenada pelo modelo.
A própria entrada de changelog do GitHub, Raptor mini está sendo lançado em pré-visualização pública para o GitHub GitHub Copilot, mal sugere quão extremos esses números são. As especificações podem dizer "mini", mas o comportamento se aproxima muito mais de um motor de codificação completo disfarçado sob um rótulo de orçamento.
O Teste Definitivo: Construindo um App do Zero
A Better Stack não começou com um problema trivial. Em vez disso, a equipe pediu ao Raptor mini que construísse um painel de satélite em tempo real do zero absoluto, tratando o modelo menos como um recurso de autocompletar e mais como um engenheiro contratante. A premissa: se o codificador “mini” do GitHub pode entregar um aplicativo completo, o rótulo deixa de significar “pequeno” e passa a significar “rápido o suficiente para trabalho sério.”
O desafio surgiu diretamente de seu experimento no YouTube, “GitHub Lançou Silenciosamente um Novo Modelo do GitHub Copilot… e É REALMENTE Bom!” Em vez de uma única função ou refatoração, o briefing exigia um aplicativo web no estilo de produção que rastreasse a Estação Espacial Internacional e satélites Starlink escolhidos à mão, atualizasse posições em tempo real e as exibisse em um mapa ou globo.
Esse escopo imediatamente ultrapassa as “tarefas menores” que a Julia Casper, da Microsoft, descreveu no podcast. Um dashboard em tempo real impõe um comportamento full-stack: integração de API de back-end, lógica de renderização de front-end, gerenciamento de estado e alguma aproximação de fidelidade de UX. Qualquer modelo que falhe em uma dessas camadas se torna um gargalo, não um impulsionador.
Para manter o teste ancorado, a Better Stack limitou os insumos da mesma forma que uma equipe real entregaria especificações a um desenvolvedor júnior. O Raptor mini recebeu três artefatos principais: - Um arquivo markdown contendo a documentação da API do satélite N2Y.io - Um arquivo de instruções em alto nível descrevendo os recursos e comportamentos necessários - Uma imagem de design derivada do Figma mostrando a interface do usuário do “painel espacial” alvo
Esses inputs abrangem todas as modalidades que o GitHub Copilot agora suporta: documentação de texto longo, requisitos em linguagem natural e dicas de design baseadas em imagem. O modelo teve que interpretar a autenticação e os pontos finais da documentação do N2Y.io, inferir layout e estilo a partir da captura de tela do Figma e conciliar ambos com as especificações funcionais do arquivo de instruções.
Em vez de um benchmark sintético, essa configuração se comporta como um sprint verde legítimo. Sem repositório inicial, sem estrutura pré-configurada, sem suporte além do que estava contido nesses arquivos. O sucesso significou sintetizar três diferentes fontes de informação em uma única base de código coerente, não apenas gerar um trecho bonito.
45 Segundos para uma Aplicação Full-Stack
Quarenta e cinco segundos após pressionar Enter, um aplicativo completo de full-stack apareceu: backend Express, frontend em JavaScript puro, CSS, HTML, chamadas de API em tempo real e uma interface em azul que correspondia quase um a um ao mockup do Figma. Sem assistentes de boilerplate, sem modelos de início, apenas Raptor mini lendo uma especificação, um documento de API e uma imagem de design, e então gerando um painel de satélite funcional que realmente funcionava.
A primeira versão já buscava dados orbitais em tempo real da API N2YO, animava os satélites na tela e conectava um loop de atualização em tempo real simples. Optou por um servidor Express simples em vez de um framework pesado, servindo um único arquivo HTML com um bundle JS de cerca de 500 linhas e CSS simples, o que significava zero drama com ferramentas de construção e recargas instantâneas.
Os visuais ficaram atrás da fidelidade dos dados no início. O aplicativo exibia pontos em movimento, mas sem um mapa-múndi ou globo, não havia como saber se as posições sobre a "Terra" faziam sentido geográfico. Assim, o próximo comando forneceu ao Raptor mini um mapa-múndi em SVG e pediu que ele sobrepusesse as rotas dos satélites.
Aquela única mudança transformou o painel de uma animação abstrata em uma verdadeira ferramenta geoespacial. Satélites agora percorriam continentes reconhecíveis, e o modelo lidava com os cálculos para projetar coordenadas de latitude/longitude no SVG 2D. Mas ainda não era suficiente: o briefing pedia um globo em 3D, e não um mapa plano.
Um único prompt de acompanhamento elevou o design: usar Three.js para envolver aquele mapa em uma esfera, posicionar satélites em 3D e manter tudo atualizando em tempo real. O Raptor mini montou uma cena 3D, câmera, iluminação e controles, e então conectou o polling da API existente a marcadores orbitais ao redor de uma Terra texturizada.
Passar de “demonstração legal” para “pronto para produção e deslumbrante” levou cerca de 7–8 comandos, principalmente ajustando os controles da câmera, corrigindo pequenos erros de matemática e suavizando a interação. Cada iteração retornava em segundos, então o refinamento parecia mais como ajustar uma linha do tempo do que esperar por uma compilação: ajustar o comando, regenerar o código, atualizar o navegador.
O painel final parecia algo de uma página de aterrissagem de um SaaS premium: uma Terra 3D rotativa e ampliável, órbitas de satélites brilhantes e atualizações em tempo real, tudo impulsionado por um código que um modelo de IA montou quase inteiramente por conta própria.
Qualidade do Código: Simples, Inteligente e Sem Excessos
O minimalismo se tornou a estrela silenciosa da demonstração do painel de satélite do Raptor mini. Ao ser solicitado a construir um aplicativo em tempo real do zero, o modelo escolheu um servidor Express simples no backend e JavaScript, HTML e CSS "puro" no frontend. Sem empacotadores, sem transpilers, sem mágica de roteamento específica de framework para depurar às 2 da manhã.
Essa escolha é importante. Para um teste de conceito que precisa ir do prompt ao navegador em menos de um minuto, Express mais ativos estáticos é quase sem atrito: `node server.js`, abrir uma porta, enviar. Ao evitar Next.js, Vite ou Remix, o Raptor mini desviou do labirinto usual de arquivos de configuração, incompatibilidades de ambiente e erros de compilação opacos.
Na parte frontal, o modelo produziu cerca de 500 linhas de JavaScript—um tamanho que você ainda pode rolar e analisar mentalmente. O código dividiu as responsabilidades claramente: uma seção para buscar dados de satélite da API N2YO, outra para atualizações do DOM e um bloco distinto para manipulação do globo 3D com Three.js. Sem funções gerais, sem um componente React de 1.000 linhas fazendo tudo.
A estrutura parecia algo que um engenheiro de nível médio poderia verificar em um bom dia. Nomes de funções claros, fluxo de dados previsível e manipuladores de eventos diretos para interações como rotação, zoom e seleção de satélites. O CSS manteve-se igualmente enxuto: uma única folha de estilo lidando com o tema azul do painel, grades de layout e ajustes responsivos sem uma sopa de classes utilitárias.
Evitar um framework moderno também eliminou uma classe inteira de dores de cabeça. Sem inchaço de `node_modules`, sem desvio de configuração do TypeScript, sem versões do React desajustadas entre desenvolvimento e produção. Para uma demonstração que precisa de apenas uma única página, renderização do lado do servidor e roteamento baseado em arquivos seriam apenas uma imitação arquitetural.
Essa contenção é vista como inteligência prática, não como limitação. O Raptor mini alinhou a pilha com o problema: uma página, atualizações em tempo real, iteração rápida. Para os desenvolvedores que tentam decidir quando optar por modelos ou pilhas mais pesadas, a própria comparação de modelos de IA do GitHub - Docs do GitHub classifica o Raptor mini como a opção otimizada para velocidade; este projeto mostra que ele também sabe quando não exagerar na engenharia.
Raptor Mini vs. Os Titãs: Velocidade em vez de Potência
A velocidade coloca o Raptor mini em uma classe de peso diferente dos modelos principais com os quais compete discretamente. O GitHub o posiciona contra grandes nomes como GPT-5, Claude e o Grok Code Fast da xAI, mas não tentando superá-los em raciocínio puro. Em vez disso, seu objetivo é ganhar no que os desenvolvedores mais valorizam: a latência dentro do editor.
Claude e GPT-5 prosperam quando você pede designs de sistemas, arquiteturas de múltiplos serviços ou explorações profundas de algoritmos. Grok Code Fast se concentra fortemente em conclusões agressivas para usuários avançados. O foco do Raptor mini é mais simples: sugestões em linha quase instantâneas, concluições de múltiplas linhas e refatorações que acompanham seu digitar no GitHub Copilot.
Empilhá-los lado a lado expõe as trocas mais claramente do que o vago changelog do GitHub jamais fez. Modelos maiores geralmente oferecem um raciocínio de alto nível mais forte, um planejamento de longo prazo melhor e uma compreensão mais sutil da linguagem natural. O Raptor mini se contrapõe com respostas mais rápidas, uma gigantesca janela de contexto de 264.000 tokens e um limite de saída de 64.000 tokens, que permite reescrever arquivos ou módulos inteiros de uma só vez.
Pense nisso como modelo de fluxo de trabalho vs. modelo de projeto. Modelos de fluxo de trabalho estão no seu editor, disparando centenas de microajudas por dia: renomeie essa função com segurança, extraia este componente, adicione logging por esses arquivos, conserte esse erro de TypeScript sem tocar em mais nada. Modelos de projeto se destacam quando você dá um passo atrás e diz: “Desenvolva um novo microsserviço para faturamento e esboce o modelo de dados, APIs e plano de migração.”
O Raptor mini se encaixa firmemente na categoria de fluxo de trabalho. Ele se destaca em: - Completações rápidas em linha enquanto você digita - Refatorações localizadas em vários arquivos - Aplicação consistente de padrões em uma grande base de código - Explicação de código desconhecido em contexto, sem a necessidade de um retorno a um modelo de chat mais lento
GPT-5, Claude ou Grok Code Fast ainda fazem mais sentido quando você precisa de: - Revisões de arquitetura e análise de trade-offs - Design de algoritmos não triviais - Raciocínio entre serviços em vários sistemas e documentos - Documentos de planejamento detalhados e RFCs
Chamar qualquer um desses modelos de "melhor" perde o foco. Um desenvolvedor esboçando uma nova arquitetura orientada a eventos provavelmente se apoiará no Claude ou no GPT-5; o mesmo desenvolvedor que passa o dia corrigindo bugs e atualizando testes sentirá imediatamente a vantagem de velocidade do Raptor mini. O verdadeiro movimento estratégico é escolher o modelo certo para cada tarefa, não apostar tudo em um único titã.
Seu Novo Colega de Trabalho em IA: O Poder do Modo Agente
O modo agente transforma o Raptor mini de uma caixa de autocomplete rápida em algo mais próximo de um novo contratado que já leu todo o seu repositório. Em vez de fornecer sugestões linha por linha, ele opera em todo o espaço de trabalho, planejando e executando edições em múltiplos passos em dezenas de arquivos de uma só vez.
No modo agente do GitHub Copilot, o Raptor mini pode escanear a árvore do seu projeto, compreender frameworks, convenções locais e testes, e então propor um plano de migração concreto. Você aprova um conjunto de alterações, e ele se encarrega de atualizar componentes, utilitários, imports e especificações em um único movimento coordenado.
A edição de múltiplos arquivos pode parecer abstrata até que você a utilize em uma refatoração complicada que vem evitando. Peça para renomear um método da API central e ele não apenas altera a definição da função, mas também: - Atualiza todos os pontos de chamada em vários pacotes - Corrige imports quebrados e arquivos barrel - Regenera ou corrige testes unitários e de integração relacionados
Agora imagine um pedido de maior responsabilidade: “Altere este componente de botão de Material-UI para Tailwind CSS em todo o projeto.” O Raptor mini, com sua janela de contexto de 264.000 tokens, pode carregar seu sistema de design, componentes compartilhados e arquivos de layout simultaneamente, então reescrever JSX, remover `<Button>` de `@mui/material` e substituí-lo por elementos semânticos de `<button>` conectados às classes utilitárias do Tailwind.
Em vez de fazer uma grande alteração de uma vez, o modo agente pode trabalhar de forma iterativa. Ele pode começar criando um novo wrapper `Button` que mapeia suas propriedades existentes para classes do Tailwind, migrar todos os usos para esse wrapper, remover as importações diretas do Material-UI e, por fim, limpar provedores de tema e estilos que sobraram. Você supervisiona ao nível do pull request, não em cada arquivo individual.
Este é um tipo diferente de impulso à produtividade em comparação com a conclusão rápida no texto. O autocompletar reduz o tempo de digitação; refatores em toda a área de trabalho eliminam categorias inteiras de esforço. Quando um sistema de IA pode executar alterações transversais de forma confiável—substituições de framework, migrações de design system, atualizações de versão de API—você para de tratá-las como tarefas de “um dia” e começa a agendá-las como trabalho regular.
A velocidade do Raptor mini amplifica esse efeito. Uma refatoração que pode levar a um humano um dia de cuidadosa busca e testes se torna um ciclo de 5 a 10 minutos de “descrever a mudança → revisar o plano → inspecionar as diferenças.” Essa mudança, de uma cirurgia manual para uma automação supervisionada, é onde a IA começa a parecer um verdadeiro colega de equipe, e não apenas uma barra de autocomplete mais inteligente.
O Futuro é Especializado, Não Generalizado
A estreia silenciosa do Raptor mini sinaliza uma mudança nos ferramentas de codificação por IA, afastando-se do “um modelo para governar todos” e em direção a assistentes especializados e com escopo restrito. Em vez de um único chatbot gigante tentando fazer tudo, o GitHub está apostando em um modelo ágil, focado em codificação, que vive dentro do seu editor, conhece seu espaço de trabalho e toma ações em seu nome.
Os desenvolvedores não precisam apenas de respostas; eles precisam de edições, refatorações e migrações executadas em centenas de arquivos. Uma janela de contexto de 264.000 tokens transforma o Raptor mini em um agente nativo para o ambiente de trabalho que pode realmente absorver uma parte significativa de um monorepo, raciocinar sobre ele e, em seguida, aplicar mudanças precisas em múltiplos arquivos sem colapsar sob o peso do prompt.
Modelos de linguagem tradicionais têm dificuldades quando você apresenta toda uma base de código corporativa para eles. Eles atingem limites de contexto, geram APIs fictícias e perdem o controle das convenções específicas do projeto. Modelos de ação menores e especializados resolvem isso ao concentrar a tarefa: codificação, refatoração, geração de testes e navegação ciente do repositório, tudo conectado diretamente a ferramentas como Visual Studio Code e GitHub.
Em vez de um único modelo geral robusto, o futuro parece mais com uma equipe de especialistas em IA. Você pode ter: - Um modelo de conclusão rápida para edições do dia a dia - Um agente de refatoração em escala de repositório - Um revisor focado em testes e CI - Um scanner de segurança ajustado para vazamentos de dependências e segredos
Estruturas agentivas como LangGraph e CrewAI já tratam modelos como trabalhadores combináveis com funções, ferramentas e memória. Os mini slots do Raptor se encaixam perfeitamente nessa visão: um agente de codificação que pode chamar APIs, ler árvores de projetos e coordenar com outros agentes que lidam com planejamento, documentação ou infraestrutura.
Os desenvolvedores vão orquestrar cada vez mais essas equipes de IA em vez de micromanagear um único fio de conversa. Um agente planeja uma migração, outro utiliza o Raptor mini para implementar alterações de código, um terceiro atualiza a documentação e um quarto realiza verificações na CI. O desenvolvedor humano se torna o líder técnico, definindo restrições, revisando diffs e decidindo quando liberar.
A própria documentação do GitHub sugere essa abordagem ecológica, listando diferentes capacidades e trade-offs entre modelos na sua página Modelos de IA Suportados no GitHub Copilot. O Raptor mini parece menos um experimento e mais o primeiro pedaço visível dessa pilha especializada, focada em agentes.
Como Liberar o Raptor Mini Hoje
Os usuários do GitHub Copilot não precisam de uma URL secreta ou chave beta para experimentar o Raptor mini. Abra o VS Code, certifique-se de que a extensão do GitHub Copilot está instalada e que você está conectado com uma conta do GitHub elegível para o GitHub Copilot (Free, Pro ou Pro+). Atualize para a versão mais recente do VS Code e da extensão para que o menu suspenso de modelos mostre os novos modelos em pré-visualização.
Abra o painel de bate-papo do GitHub Copilot (Ctrl+Shift+I no Windows/Linux, Cmd+Shift+I no macOS, ou através do ícone do GitHub Copilot na Barra de Atividades). No cabeçalho de entrada do bate-papo, encontre o dropdown seletor de modelo; ele geralmente está definido como "Automático" ou um modelo geral baseado no GPT-5. Clique nele e escolha "Raptor mini (preview pública)" na lista; se você não vê essa opção, sua conta provavelmente ainda não recebeu a atualização.
Uma vez ativado, comece com pequenos comandos cirúrgicos que aproveitem sua velocidade. Experimente coisas como: - “Refatore esta função para ser mais eficiente e explique as mudanças.” - “Explique este método de 200 linhas em português claro e aponte possíveis bugs.” - “Gere testes unitários para este arquivo usando Jest, concentrando-se em casos extremos.” - “Documente este componente React com JSDoc e adicione verificações de tipo para as props.”
Para sentir a janela de contexto de 264.000 tokens, faça uma refatoração segura e de baixo risco em vários arquivos. Por exemplo: - "Atualize esta função utilitária e aplique a nova assinatura em todos os lugares em src/, incluindo importações e testes." - "Renomeie este hook do React e atualize todos os seus usos no projeto." - "Extraia esta lógica duplicada para um helper compartilhado e conecte-a entre esses três arquivos."
Empurre a edição de múltiplos arquivos no estilo de agente para um branch descartável e, em seguida, inspecione cada diferença antes de cometer. Quando você encontrar acertos—ou falhas—compartilhe-os nas Discussões do GitHub GitHub Copilot para que a equipe possa ajustar o Raptor mini mais rapidamente. Use, quebre e diga ao GitHub exatamente como esse modelo “mini” transforma seu fluxo de trabalho diário.
Perguntas Frequentes
O que é o Raptor Mini do GitHub Copilot?
Raptor Mini é um novo modelo de IA experimental no GitHub Copilot, baseado em um GPT-5 mini ajustado. Ele é otimizado para conclusões de código em alta velocidade, explicações e tarefas baseadas em agentes diretamente no VS Code.
Como o Raptor Mini é diferente de outros modelos de Copilot?
O Raptor Mini prioriza velocidade e eficiência para tarefas de codificação do dia a dia, como refatoração e edições em múltiplos arquivos. Enquanto modelos maiores se destacam na geração complexa e do zero, o Raptor Mini é projetado para se integrar rapidamente ao seu fluxo de trabalho.
Como posso ativar e usar o Raptor Mini?
Você pode ativar o Raptor Mini no VS Code abrindo a visualização do Copilot Chat, clicando no seletor de modelo na parte superior e escolhendo 'Raptor Mini (Preview)'. Ele está atualmente disponível em pré-visualização pública para a maioria dos usuários do Copilot.
O Raptor Mini é gratuito para usar?
Durante seu período de pré-visualização pública, o Raptor Mini é gratuito para uso em planos pagos do Copilot (com um multiplicador de cota de 1) e está disponível para usuários do plano gratuito. Isso pode mudar após o término da pré-visualização.