TL;DR / Key Takeaways
El modelo de IA que GitHub no anunció.
GitHub presentó un nuevo codificador de IA al mundo el 10 de noviembre de 2025, y casi nadie se dio cuenta. Enterrado en una entrada de registro de cambios de rutina, la compañía anunció que Raptor mini estaba “disponible en vista previa pública” para GitHub Copilot, accesible desde un menú desplegable en Visual Studio Code. Sin keynote, sin un blog que profundizara, solo un aviso de un párrafo sobre lo que podría ser el modelo más importante de GitHub hasta ahora.
El silencio en torno al lanzamiento parece deliberado. GitHub lanzó Raptor mini sin métricas públicas, sin tarjeta de modelo y sin un documento técnico que explique cómo este GPT‑5 mini ajustado se compara con los modelos existentes de GitHub Copilot o competidores como Claude. Los desarrolladores solo recibieron una promesa vaga de “compleciones de código y explicaciones rápidas y precisas” y una nota que indica que admite el modo agente y todos los tipos de interacción de GitHub Copilot.
Contrastemos eso con cómo trabajan los competidores. Cuando Google lanza una nueva variante de Gemini o OpenAI actualiza GPT‑5, organizan transmisiones en vivo de varias horas, publican hojas de especificaciones densas y saturan las redes sociales con demostraciones seleccionadas y tablas de clasificación. En comparación, Raptor mini llegó como una versión nocturna: sin video promocional, sin citas de socios seleccionados, solo "ahora existe y puedes seleccionarlo."
Ese perfil bajo crea una extraña tensión. En teoría, Raptor mini expone un hardware serio: una ventana de contexto de aproximadamente 264,000 tokens, un límite de salida de 64,000 tokens, y soporte completo para llamadas a herramientas, ediciones de múltiples archivos y flujos de trabajo de agentes dentro de VS Code. Sin embargo, GitHub se negó a publicar ni un solo gráfico de latencia, gráfico de precisión o comparación con sus propios modelos más grandes.
En lugar de puntos de referencia, los primeros adoptantes reciben un desafío. Si quieres saber lo que puede hacer Raptor mini, debes apuntarlo a una base de código real y descubrirlo de la manera difícil. Eso es exactamente lo que hizo el equipo de Better Stack, pidiéndole al modelo que generara un panel de seguimiento satelital en tiempo real desde cero y cronometrando cuán rápido podía ensamblar una pila de trabajo.
El debut silenciado del Raptor mini convierte a GitHub Copilot en una especie de experimento de caja negra. Con GitHub negándose a presumir en su nombre, la única forma de entender este modelo es tratarlo como una nueva contratación: lanzar trabajo real, inspeccionar las diferencias y ver si el misterio está justificado.
Descifrando el 'Mini' en Raptor Mini
Mini, en la nueva línea de modelos de GitHub, no significa juguete. Oficialmente, Raptor mini es una variante GPT-5 mini ajustada, entrenada para la codificación y escritura de propósito general, con GitHub posicionándola como un motor optimizado para velocidad, capaz de ofrecer completaciones y explicaciones rápidas y precisas dentro de GitHub Copilot. Soporta todos los modos de GitHub Copilot en Visual Studio Code: chat, sugerencias en línea, edición y flujos de trabajo completos de agente.
El escueto registro de cambios de GitHub solo confirma que Raptor mini es "un modelo mini de GPT-5 afinado para programación de propósito general", pero otros detalles han salido a la luz a través de charlas y podcasts. En su interior, cuenta con una ventana de contexto de aproximadamente 264,000 tokens y una ventana de salida de 64,000 tokens, cifras que lo acercan más a modelos de gran peso que a la marca de "mini" que los desarrolladores esperan.
Julia Casper del equipo de VS Code ha tratado de restablecer esas expectativas. “Ten en cuenta que es mini”, dijo en un podcast de Microsoft, enfatizando que el modelo está optimizado para la velocidad y para “tareas más pequeñas, cosas que no son tan complejas”, donde deseas retroalimentación instantánea en lugar de un diseño de sistema profundo. Para refactorizaciones extensas o arquitecturas nuevas, todavía aconseja a los desarrolladores que se dirijan a familias más grandes como Claude o el GPT‑5 completo.
El nombre en sí mismo es un ejercicio de branding superpuesto a un nombre en código interno bastante convencional. Casper describe Raptor como un simple nombre en código elegido para encajar en un tema de “grupo de aves” que GitHub utiliza para sus modelos y servicios. Luego, el departamento de marketing abogó por algo ligeramente misterioso y relacionado con animales, eligiendo “Raptor mini” en lugar de otro SKU alfanumérico seco.
Los desarrolladores vieron la palabra mini y asumieron un modelo de acompañante: bueno para cadenas de documentación, pruebas unitarias, tal vez una expresión regular rápida. Sin embargo, los primeros informes prácticos describen algo más parecido a un caballo de batalla predeterminado que a un sidecar, especialmente para ediciones cotidianas y trabajo en características.
Esa discrepancia entre la etiqueta y la realidad se demuestra claramente en las pruebas comunitarias. El equipo de Better Stack, por ejemplo, le pidió a Raptor mini que construyera un panel de control satelital en tiempo real desde cero, conectando una API de terceros, un backend de Express, un frontend de JavaScript puro, CSS e incluso un globo 3D con Three.js, y entregó un prototipo funcional en aproximadamente 45 segundos. En la práctica, Mini se asemeja más a "optimizado para latencia" que a "limitado".
Las especificaciones que desafían su nombre
El mini branding colisiona de frente con números como una ventana de contexto de 264,000 tokens. Esa es aproximadamente la capacidad de absorber cientos de páginas de código, documentos y registros a la vez, suficiente para contener un monorepo de tamaño mediano completo o una pila completa de React/Node más sus archivos README y referencias API en un solo aviso. Para los desarrolladores, eso significa que GitHub Copilot puede razonar sobre una función a través del front end, back end, pruebas y configuración sin perder constantemente el contexto anterior.
Una ventana tan grande cambia la forma en que interactúas con el código heredado. Puedes insertar un servicio Java de 20,000 líneas, una complicada configuración de webpack y una prueba de integración fallida, y luego pedirle a Raptor mini que trace un error de extremo a extremo. En lugar de pegar pequeños fragmentos, tratas al modelo como un nuevo empleado que acaba de pasar una semana leyendo todo tu repositorio.
El tamaño de salida también es crucial. Con una ventana de salida de 64,000 tokens, Raptor mini puede emitir decenas de miles de líneas de código o diferencias de una sola vez. Eso desbloquea operaciones que antes requerían múltiples pasadas, fusiones y intervención humana.
Las refactorizaciones a gran escala se convierten de repente en solicitudes de una sola vez. Puedes pedirle que: - Migre cada clase en un paquete de callbacks a async/await - Reemplace una capa de registro personalizada con OpenTelemetry en todos los servicios - Genere suites de pruebas completas para múltiples módulos en una sola ejecución
Esos no son "mini" trabajos de juguete, y ahí es donde la marca empieza a parecer intencionadamente engañosa. La comunicación oficial presenta al Raptor mini como optimizado para velocidad y "tareas más pequeñas", sin embargo, su contexto bruto y especificaciones de salida rivalizan o superan a muchos modelos insignia. El nombre suena menos como un límite de capacidad y más como un movimiento de posicionamiento para evitar canibalizar opciones más pesadas y costosas.
El modo agente es donde estas especificaciones dejan de ser números abstractos y comienzan a sentirse como un nuevo primitivo de IDE. Con todo el espacio de trabajo cargado en un contexto de 264k, el agente puede planificar ediciones en múltiples pasos, abrir y modificar docenas de archivos, actualizar importaciones y regenerar pruebas mientras preserva una visión coherente del proyecto. La edición de múltiples archivos deja de ser una danza frágil, archivo por archivo, y se convierte en una única operación consistente coordinada por el modelo.
La propia entrada del changelog de GitHub, Raptor mini se está implementando en vista previa pública para GitHub GitHub Copilot, apenas insinúa cuán extremos son estos números. Las especificaciones pueden decir "mini", pero el comportamiento se acerca mucho más a un motor de codificación completo oculto detrás de una etiqueta económica.
La Prueba Definitiva: Crear una App Desde Cero
Better Stack no comenzó con un problema trivial. En su lugar, el equipo pidió a Raptor mini que construyera un panel de satélite en tiempo real desde cero, tratando al modelo menos como una función de autocompletado y más como un ingeniero a contrato. La premisa: si el "mini" programador de GitHub puede entregar una aplicación de principio a fin, la etiqueta deja de significar "pequeño" y comienza a significar "suficientemente rápido para trabajo serio."
El desafío surgió directamente de su experimento en YouTube, "GitHub lanzó silenciosamente un nuevo modelo de GitHub Copilot... ¡y es REALMENTE bueno!". En lugar de una única función o refactorización, el proyecto requería una aplicación web de estilo de producción que rastreara la Estación Espacial Internacional y satélites seleccionados de Starlink, actualizara posiciones en tiempo real y las representara en un mapa o globo.
Ese alcance va más allá de las “tareas más pequeñas” que describió Julia Casper de Microsoft en el podcast. Un panel en tiempo real obliga a un comportamiento full-stack: integración de API en el back-end, lógica de renderizado en el front-end, gestión del estado y alguna aproximación a la fidelidad de la experiencia del usuario (UX). Cualquier modelo que falle en una de estas capas se convierte en un cuello de botella, no en un potenciador.
Para mantener la prueba enfocada, Better Stack limitó las entradas de la misma manera en que un equipo real entregaría especificaciones a un desarrollador junior. Raptor mini recibió tres artefactos clave: - Un archivo markdown que contiene la documentación de la API satelital de N2Y.io - Un archivo de instrucciones a alto nivel que describe las características y comportamientos requeridos - Una imagen de diseño derivada de Figma que muestra la interfaz de usuario del "tablero espacial" objetivo
Esas entradas abarcan todas las modalidades que GitHub Copilot ahora admite: documentación de texto largo, requisitos en lenguaje natural y señales de diseño basadas en imágenes. El modelo tuvo que extraer la autenticación y los puntos finales de la documentación de N2Y.io, inferir el diseño y el estilo de la captura de pantalla de Figma, y reconciliar ambos con la especificación funcional del archivo de instrucciones.
En lugar de ser un punto de referencia sintético, esta configuración se comporta como un sprint realista en un terreno virgen. Sin repositorio inicial, sin marco preconfigurado, sin asistencia más allá de lo que existía en esos archivos. El éxito significó sintetizar tres diferentes fuentes de información en una base de código coherente, no solo generar un fragmento bonito.
45 segundos para una aplicación de pila completa
Cuarenta y cinco segundos después de presionar Enter, apareció una aplicación completa de pila completa: backend en Express, frontend en JavaScript puro, CSS, HTML, llamadas a APIs en tiempo real y una interfaz de usuario azulada que coincidía casi uno a uno con el mockup de Figma. Sin asistentes de boilerplate, sin plantillas iniciales, solo Raptor mini leyendo una especificación, un documento de API y una imagen de diseño, y luego generando un panel de control de satélite funcional que realmente funcionaba.
La primera versión ya extraía datos orbitales en tiempo real de la API N2YO, animaba satélites en la pantalla y conectaba un bucle de actualización simple en tiempo real. Elegía un servidor Express simple en lugar de un marco pesado, sirviendo un solo archivo HTML con un paquete JS de aproximadamente 500 líneas y CSS básico, lo que significaba cero drama con las herramientas de compilación y recargas instantáneas.
Los visuales estaban rezagados respecto a la fidelidad de los datos al principio. La aplicación mostraba puntos en movimiento, pero sin un mapa mundial o un globo, no había forma de saber si las posiciones sobre la “Tierra” tenían sentido geográfico. Así que la siguiente instrucción proporcionó a Raptor mini un mapa mundial en SVG y le pidió que superpusiera las trayectorias de los satélites.
Ese movimiento transformó el panel de control de una animación abstracta en una herramienta geoespacial real. Los satélites ahora trazaban continentes reconocibles, y el modelo se encargaba de los cálculos para proyectar las coordenadas de latitud/longitud en el SVG 2D. Aún no era suficiente: el briefing pedía un globo 3D, no un mapa plano.
Un único aviso de seguimiento elevó el diseño: utilizar Three.js para envolver ese mapa en una esfera, colocar satélites en 3D y mantener todo actualizado en tiempo real. Raptor mini construyó una escena 3D, cámara, iluminación y controles, luego conectó el sondeo de la API existente a marcadores orbitales que orbitan una Tierra texturizada.
Pasar de "demo genial" a "listo para producción y espectacular" tomó alrededor de 7 a 8 indicaciones, principalmente ajustando los controles de la cámara, corrigiendo errores menores de matemáticas y suavizando la interacción. Cada iteración regresó en segundos, por lo que el refinamiento se sintió como limpiar una línea de tiempo en lugar de esperar por una compilación: ajustar la indicación, regenerar el código, actualizar el navegador.
El panel final se parecía a algo de una página de aterrizaje de SaaS premium: una Tierra 3D rotativa y ampliable, órbitas de satélites brillantes y actualizaciones en tiempo real, todo impulsado por un código que un modelo de IA ensambló casi por completo por sí solo.
Calidad del Código: Simple, Inteligente y Sin Excesos
El minimalismo se convirtió en la estrella silenciosa de la demostración del panel satelital del Raptor mini. Al ser solicitado para construir una aplicación en tiempo real desde cero, el modelo eligió un servidor Express sencillo en el backend y JavaScript, HTML y CSS sin ningún añadido en el frontend. Sin empaquetadores, sin transpiladores, sin magia de enrutamiento específica de frameworks para depurar a las 2 a.m.
Esa elección importa. Para una prueba de concepto que necesita pasar de la solicitud al navegador en menos de un minuto, Express junto con activos estáticos es casi sin fricciones: `node server.js`, abre un puerto, y listo. Al evitar Next.js, Vite o Remix, Raptor mini esquivó el laberinto habitual de archivos de configuración, desajustes de entorno y errores de compilación opacos.
En el frontend, el modelo produjo aproximadamente 500 líneas de JavaScript—una cantidad que aún puedes desplazarte y procesar mentalmente. El código separó las responsabilidades de manera clara: una sección para obtener datos satelitales de la API N2YO, otra para las actualizaciones del DOM, y un bloque distinto para la gestión de la esfera 3D con Three.js. Sin funciones gigantes, sin componentes de React de 1,000 líneas que hagan todo.
La estructura parecía algo que un ingeniero de nivel medio podría revisar en un buen día. Nombres de funciones claros, un flujo de datos predecible y controladores de eventos sencillos para interacciones como rotar, acercar y seleccionar satélites. El CSS también se mantuvo ligero: una sola hoja de estilo manejando el tema azul del panel, las cuadrículas de diseño y los ajustes responsivos sin un mar de clases utilitarias.
Evitar un marco moderno también eliminó una clase entera de dolores de cabeza. Sin el bloat de `node_modules`, sin deriva de configuración de TypeScript, sin versiones de React desiguales entre desarrollo y producción. Para una demostración que solo necesita una sola página, el renderizado del lado del servidor y el enrutamiento basado en archivos habrían sido un cosplay arquitectónico.
Esa restricción se lee como inteligencia práctica, no como limitación. Raptor mini alineó la pila con el problema: una página, actualizaciones en tiempo real, iteración rápida. Para los desarrolladores que intentan decidir cuándo optar por modelos o pilas más pesadas, la propia comparación de modelos de IA de GitHub - Documentación de GitHub enmarca a Raptor mini como la opción optimizada para velocidad; este proyecto demuestra que también sabe cuándo no sobreingeniar.
Raptor Mini vs. Los Titanes: Velocidad sobre Potencia
La velocidad coloca a Raptor mini en una categoría de peso diferente a la de los modelos destacados con los que compite en silencio. GitHub lo posiciona contra pesos pesados como GPT-5, Claude y Grok Code Fast de xAI, pero no intentando superarlos en razonamiento puro. En cambio, su objetivo es ganar en lo que los desarrolladores sienten más: la latencia dentro del editor.
Claude y GPT-5 prosperan cuando se les pide diseños de sistemas, arquitecturas de múltiples servicios o exploraciones algorítmicas profundas. Grok Code Fast se enfoca intensamente en completaciones agresivas para usuarios avanzados. La propuesta de Raptor mini es más simple: sugerencias en línea casi instantáneas, completaciones de múltiples líneas y refactorizaciones que se mantienen al ritmo de tu escritura en GitHub Copilot.
Colocarlos uno al lado del otro expone las compensaciones más claramente que el vago registro de cambios de GitHub. Los modelos más grandes suelen ofrecer un razonamiento de alto nivel más sólido, una mejor planificación a largo plazo y una comprensión del lenguaje natural más matizada. Raptor mini contrarresta con respuestas más rápidas, una enorme ventana de contexto de 264,000 tokens y un límite de salida de 64,000 tokens que le permite reescribir archivos o módulos enteros de una sola vez.
Piénsalo como modelo de flujo de trabajo vs. modelo de proyecto. Los modelos de flujo de trabajo se encuentran en tu editor, generando cientos de microasistencias al día: renombrar esta función de manera segura, extraer este componente, añadir registros a estos archivos, corregir este error de TypeScript sin tocar nada más. Los modelos de proyecto brillan cuando te alejas y dices: "Diseña un nuevo microservicio para facturación y esboza el modelo de datos, las API y el plan de migración."
Raptor mini se encuentra firmemente en la categoría de flujo de trabajo. Destaca en: - Completaciones rápidas en línea mientras escribes - Refactorizaciones localizadas en varios archivos - Aplicación de patrones de manera consistente en una gran base de código - Explicación de código poco familiar en contexto, sin necesidad de hacer un viaje de ida y vuelta a un modelo de chat más lento
GPT-5, Claude o Grok Code Fast siguen siendo más sensatos cuando necesitas: - Revisiones de arquitectura y análisis de compensaciones - Diseño de algoritmos no triviales - Razonamiento cruzado sobre múltiples sistemas y documentos - Documentos de planificación extensos y RFCs
Llamar "mejor" a cualquiera de estos modelos pierde el sentido. Un desarrollador que esté diseñando una nueva arquitectura basada en eventos probablemente se inclinará por Claude o GPT-5; el mismo desarrollador que esté resolviendo errores y actualizando pruebas notará de inmediato la ventaja de velocidad del Raptor mini. La verdadera jugada maestra es elegir el modelo adecuado para cada tarea, no apostar todo a un solo titán.
Tu nuevo compañero de IA: El poder del Modo Agente
El modo agente transforma Raptor mini de una caja de autocompletar rápida en algo más cercano a un nuevo empleado que ya ha leído todo tu repositorio. En lugar de ofrecer sugerencias línea por línea, opera en todo el espacio de trabajo, planificando y ejecutando ediciones en múltiples pasos a través de docenas de archivos a la vez.
En GitHub, el modo agente de GitHub Copilot permite que Raptor mini escanee el árbol de tu proyecto, entienda los marcos, las convenciones locales y las pruebas, y luego proponga un plan de migración concreto. Tú apruebas un conjunto de cambios, y se encarga de actualizar componentes, utilidades, importaciones y especificaciones en una sola acción coordinada.
La edición de múltiples archivos suena abstracta hasta que la utilizas en una complicada reestructuración que has estado evitando. Pídele que renombre un método API central, y no solo cambiará la definición de la función, sino que también: - Actualiza cada sitio de llamada en múltiples paquetes - Corrige importaciones rotas y archivos de barril - Regenera o parchea pruebas unitarias e integradas relacionadas
Ahora imagina una solicitud de mayor envergadura: "Cambia este componente de botón de Material-UI a Tailwind CSS en todo el proyecto." Raptor mini, con su ventana de contexto de 264,000 tokens, puede cargar tu sistema de diseño, componentes compartidos y archivos de diseño simultáneamente, luego reescribir JSX, eliminar `<Button>` de `@mui/material` y reemplazarlo con elementos semánticos `<button>` conectados a las clases utilitarias de Tailwind.
En lugar de realizar un gran cambio, el modo agente puede trabajar de manera iterativa. Puede comenzar creando un nuevo envoltorio `Button` que mapee tus propiedades existentes a clases de Tailwind, migrar todos los usos a ese envoltorio, eliminar las importaciones directas de Material-UI y, finalmente, limpiar los proveedores de tema y estilos sobrantes. Tú supervisas a nivel de la solicitud de extracción, no en cada archivo individual.
Este es un tipo diferente de aumento de productividad en comparación con la finalización automática más rápida. La autocompleción ahorra segundos al escribir; refactorizaciones a nivel de espacio de trabajo eliminan categorías enteras de trabajo arduo. Cuando un sistema de IA puede ejecutar de manera confiable cambios transversales—cambios de marco, migraciones de sistemas de diseño, actualizaciones de versiones de API—dejas de tratarlos como tareas para “algún día” y comienzas a programarlos como trabajo regular.
La velocidad del mini Raptor amplifica este efecto. Un refactor que podría llevar a un humano un día de cuidadosa búsqueda y pruebas se convierte en un bucle de 5 a 10 minutos de "describir cambio → revisar plan → inspeccionar diferencia". Ese cambio, de cirugía manual a automatización supervisada, es donde la IA comienza a sentirse como un verdadero compañero de equipo, no solo como una barra de autocompletar más inteligente.
El futuro es especializado, no generalizado.
El debut silencioso del Raptor mini señala un cambio en las herramientas de codificación de IA, alejándose de “un modelo para gobernarlos a todos” y hacia asistentes especializados y de ámbito reducido. En lugar de un único y gigantesco chatbot que intenta hacerlo todo, GitHub está apostando por un modelo rápido, centrado en la codificación, que vive dentro de tu editor, conoce tu espacio de trabajo y toma acciones en tu nombre.
Los desarrolladores no solo necesitan respuestas; necesitan ediciones, refactorizaciones y migraciones ejecutadas en cientos de archivos. Una ventana de contexto de 264,000 tokens convierte a Raptor mini en un agente nativo de espacio de trabajo que puede consumir una parte considerable de un monorepo, razonar sobre él y luego aplicar cambios precisos en múltiples archivos sin colapsar ante el exceso de solicitudes.
Los modelos de lenguaje grandes tradicionales tienen dificultades cuando se les presenta toda una base de código empresarial. Alcanzan límites de contexto, hallucinan APIs y pierden la pista de las convenciones específicas del proyecto. Los modelos de acción más pequeños y especializados resuelven eso al reducir la tarea: codificación, refactorización, generación de pruebas y navegación consciente del repositorio, todo conectado directamente a herramientas como Visual Studio Code y GitHub.
En lugar de un único modelo general masivo, el futuro se asemeja más a un equipo de especialistas en IA. Podrías tener: - Un modelo de finalización rápida en línea para ediciones cotidianas - Un agente de refactorización a escala de repositorio - Un revisor centrado en pruebas y CI - Un escáner de seguridad ajustado para filtraciones de dependencias y secretos
Los marcos agentivos como LangGraph y CrewAI ya tratan a los modelos como trabajadores componibles con roles, herramientas y memoria. Los mini slots de Raptor encajan perfectamente en esa visión: un agente de codificación que puede llamar a APIs, leer árboles de proyectos y coordinarse con otros agentes que manejan la planificación, la documentación o la infraestructura.
Los desarrolladores orquestarán cada vez más estos equipos de IA en lugar de micromanejar un solo hilo de chat. Un agente planifica una migración, otro utiliza Raptor mini para implementar cambios en el código, un tercero actualiza la documentación y un cuarto realiza verificaciones en CI. El desarrollador humano se convierte en el líder técnico, estableciendo restricciones, revisando diferencias y decidiendo cuándo lanzar.
La propia documentación de GitHub insinúa este enfoque ecológico, enumerando diferentes capacidades y compensaciones entre modelos en su página de Modelos de IA compatibles en GitHub Copilot. Raptor mini parece menos un experimento y más la primera pieza visible de esa pila especializada orientada a agentes.
Cómo liberar Raptor Mini hoy
Los usuarios de GitHub Copilot no necesitan una URL secreta ni una clave beta para probar Raptor mini. Abre VS Code, asegúrate de que la extensión de GitHub Copilot esté instalada y de que hayas iniciado sesión con una cuenta de GitHub elegible para GitHub Copilot (Gratis, Pro o Pro+). Actualiza a la última versión de VS Code y de la extensión para que el menú desplegable de modelos muestre realmente los nuevos modelos en vista previa.
Abre el panel de chat de GitHub Copilot (Ctrl+Shift+I en Windows/Linux, Cmd+Shift+I en macOS, o a través del ícono de GitHub Copilot en la barra de actividades). En el encabezado de entrada de chat, encuentra el menú desplegable selector de modelo; generalmente se establece de forma predeterminada en “Auto” o un modelo general basado en GPT-5. Haz clic en él y selecciona “Raptor mini (vista previa pública)” de la lista; si no lo ves, es probable que tu cuenta aún no haya recibido la actualización.
Una vez habilitado, comienza con pequeñas indicaciones quirúrgicas que aprovechen su velocidad. Prueba cosas como: - "Refactoriza esta función para que sea más eficiente y explica los cambios." - "Explica este método de 200 líneas en inglés simple y señala posibles errores." - "Genera pruebas unitarias para este archivo usando Jest, enfocándote en casos extremos." - "Documenta este componente de React con JSDoc y añade comprobaciones de tipos de propiedades."
Para sentir la ventana de contexto de 264,000 tokens, haz un refactor seguro y de bajo riesgo a través de múltiples archivos. Por ejemplo: - "Actualiza esta función de utilidad y aplica la nueva firma en todos los archivos de src/, incluidos imports y pruebas." - "Renombra este hook de React y actualiza todos sus usos en el proyecto." - "Extrae esta lógica duplicada en un helper compartido y conéctalo en estos tres archivos."
Empuja su edición multi-archivo estilo agente en una rama desechable, luego inspecciona cada diferencia antes de hacer el commit. Cuando encuentres éxitos—o fracasos—compártelos en las Discusiones de GitHub para que el equipo pueda ajustar Raptor mini más rápido. Úsalo, rompelos y dile a GitHub exactamente cómo este modelo “mini” transforma tu flujo de trabajo diario.
Preguntas Frecuentes
¿Qué es Raptor Mini de GitHub Copilot?
Raptor Mini es un nuevo modelo de IA experimental en GitHub Copilot, basado en un GPT-5 mini ajustado. Está optimizado para completar código a alta velocidad, proporcionar explicaciones y realizar tareas basadas en agentes directamente en VS Code.
¿Cómo se diferencia el Raptor Mini de otros modelos de Copilot?
Raptor Mini prioriza la velocidad y la eficiencia en tareas de codificación cotidianas como la refactorización y ediciones en múltiples archivos. Mientras que modelos más grandes destacan en generación compleja desde cero, Raptor Mini está diseñado para sentirse como una parte rápida e integrada de tu flujo de trabajo.
¿Cómo puedo habilitar y usar Raptor Mini?
Puedes habilitar Raptor Mini en VS Code abriendo la vista de Chat de Copilot, haciendo clic en el selector de modelos en la parte superior y eligiendo 'Raptor Mini (Vista previa)'. Actualmente está disponible en vista previa pública para la mayoría de los usuarios de Copilot.
¿Es Raptor Mini gratuito para usar?
Durante su período de vista previa pública, Raptor Mini es gratuito para usar en planes de pago de Copilot (con un multiplicador de cuota de 1) y está disponible para los usuarios del plan gratuito. Esto puede cambiar después de que finalice la vista previa.