Resumen / Puntos clave
La Paradoja de la Calidad de la IA: Por Qué los Grandes Modelos Dan Malos Resultados
Los modelos de IA modernos como Claude Opus 4.6 y GPT 5.4 representan un pináculo de la inteligencia computacional. El Opus 4.6 de Anthropic, lanzado en febrero de 2026, cuenta con una ventana de contexto de 1 millón de tokens y sobresale en tareas agénticas complejas, demostrando un razonamiento sofisticado. Estas no son meras actualizaciones incrementales; son sistemas robustos y altamente capaces diseñados para la resolución de problemas sofisticados y el trabajo a largo plazo. Sin embargo, una paradoja desconcertante afecta a muchos usuarios: los modelos de primer nivel frecuentemente ofrecen resultados frustrantemente mediocres, a menudo desperdiciando importantes recursos computacionales.
El problema rara vez reside en el modelo fundacional en sí. Como enfatiza el experto en IA Ras Mic, los modelos actuales son "excepcionalmente buenos", capaces de discernir patrones complejos y ejecutar instrucciones intrincadas. El diferenciador crítico, entonces, se convierte en el arnés y el contexto que los usuarios construyen a su alrededor. Esta arquitectura circundante dicta si el modelo produce una salida de calidad o una mera "chapuza", transformando una IA potente en una herramienta costosa y de bajo rendimiento.
Esta desconexión alimenta la frustración generalizada de los usuarios, lo que lleva a un considerable desperdicio financiero. Tanto los desarrolladores como los usuarios cotidianos invierten en IA de vanguardia, solo para encontrarse con agentes que producen resultados genéricos, incorrectos o lamentablemente ineficientes. Los culpables comunes incluyen archivos `agent.md` o `cloud.md` verbosos, que se cargan en el contexto en cada turno, quemando miles de tokens y degradando el rendimiento a medida que la ventana de contexto se llena. La promesa de la automatización inteligente da paso a un ciclo de sobre-prompting, costos crecientes y rendimientos decrecientes.
Superar esta ineficiencia exige un cambio fundamental en la estrategia. En lugar de instrucciones de fuerza bruta y archivos `agent.md` inflados de tokens —que Ras Mic argumenta que el 95% de los usuarios pueden omitir por completo, costando más de 944 tokens por turno— el enfoque debe girar hacia flujos de trabajo elegantes y eficientes. Esto implica comprender la intrincada mecánica de la ventana de contexto y aprovechar técnicas avanzadas como las Skills personalizadas, que cuestan aproximadamente 53 tokens por turno, para una interacción dirigida y eficiente en tokens, deteniendo el ciclo de tokens desperdiciados y desbloqueando una productividad genuina.
Dentro del Cerebro de la IA: Deconstruyendo la Ventana de Contexto
La efectividad de un agente de IA depende de su ventana de contexto, esencialmente la memoria a corto plazo del modelo para cualquier tarea dada. Este componente crítico define el alcance de la información a la que la IA puede acceder y procesar para ejecutar una acción.
Esta ventana no está vacía; es una pila dinámica de información. Comprende varios elementos cargados en la memoria activa del modelo: - Prompt del sistema fundacional, que guía el comportamiento central de la IA. - Archivos de agente, como `agent.md` o `cloud.md`, destinados a proporcionar instrucciones específicas. - Habilidades personalizadas, diseñadas para flujos de trabajo especializados. - Herramientas integradas y el código base relevante. - Conversación continua del usuario, incluyendo todos los turnos anteriores.
Ras Mic, un experto en la mecánica de agentes de IA, argumenta que los archivos `agent.md` a menudo resultan redundantes para el 95% de los usuarios. Estos archivos consumen una cantidad significativa de tokens, cargándose en cada turno y degradando el rendimiento a medida que la ventana se llena innecesariamente.
Cada pieza de información, desde un solo carácter hasta una base de código completa, se traduce en tokens, las unidades fundamentales de datos que procesa una IA. Modelos como Claude Opus 4.6 y GPT 5.4 cuentan con impresionantes ventanas de contexto, a menudo alrededor de 250,000 tokens. Sin embargo, esta capacidad tiene un límite estricto.
Una vez que un agente alcanza su límite de tokens, recurre a la compactación, resumiendo la información más antigua para dejar espacio a nuevos datos. Este proceso conduce inevitablemente a una fuerte disminución del rendimiento y la calidad de la salida, similar a un humano que lucha por recordar detalles de una memoria muy resumida.
Dominar el rendimiento del agente y optimizar el gasto de tokens requiere una comprensión profunda de la anatomía de esta ventana de contexto. Gestionar estratégicamente lo que entra en esta memoria, particularmente aprovechando la divulgación progresiva a través de habilidades personalizadas (que cuestan aproximadamente 53 tokens por turno frente a 944+ para archivos `agent.md` equivalentes), se vuelve primordial para una salida de IA consistente y de alta calidad.
El archivo 'agent.md' es una trampa (y caíste en ella)
La sabiduría convencional dicta la creación de archivos `agent.md` o `claude.md` extensos, creyendo que estas instrucciones detalladas son cruciales para el rendimiento de un agente. Sin embargo, esta práctica común a menudo resulta contraproducente, consumiendo recursos innecesariamente y obstaculizando la eficiencia. Ras Mic, un experto en optimización de agentes de IA, desafía esta noción, afirmando que el 95% de los usuarios pueden —y deberían— abandonar por completo estos grandes archivos contextuales.
Los modelos de lenguaje grandes modernos como Claude Opus 4.6 y GPT 5.4 son excepcionalmente capaces; infieren el contexto directamente de la base de código y la conversación en curso. Decirle a un agente que un proyecto usa React se vuelve redundante cuando el modelo ya tiene los archivos de React dentro de su ventana de contexto. Posee la inteligencia inherente para comprender el entorno de desarrollo sin instrucciones explícitas y repetidas. Esto permite un enfoque "súper, súper mínimo" para la construcción de contexto, simplificando drásticamente la configuración del agente. Para obtener información más detallada sobre los modelos avanzados de Anthropic y sus capacidades, incluido Claude Opus, consulte su anuncio oficial: Introducing Claude 3: Opus, Sonnet, Haiku.
El principal inconveniente del `agent.md` sobredimensionado radica en su mecanismo de carga. Los agentes cargan estos archivos completos en su ventana de contexto en cada turno, quemando miles de tokens innecesariamente. Una habilidad personalizada, por el contrario, cuesta aproximadamente 53 tokens por turno, mientras que un archivo `agent.md` equivalente puede consumir más de 944 tokens para la misma interacción. Esto conduce a un desperdicio significativo de tokens y a un rendimiento degradado a medida que la ventana de contexto se llena rápidamente.
Entonces, ¿cuándo son apropiados estos archivos? El 5% restante de los casos de uso involucran metodologías de empresa altamente específicas y propietarias o flujos de trabajo únicos que un agente no puede inferir solo del código o la conversación. Estos escenarios exigen instrucciones constantes e innegociables, como adherirse a complejos protocolos de cumplimiento interno o procedimientos especializados de manejo de datos. En estos casos, un archivo `.md` compacto y precisamente definido aún puede cumplir un propósito vital. De lo contrario, confíe en la inteligencia del modelo y elimine lo superfluo.
El arma secreta: 'Divulgación Progresiva' con Habilidades
Abandonar esos archivos `agent.md` inflados revela una alternativa superior: Habilidades. Estos conjuntos de instrucciones especializados y modulares optimizan drásticamente cómo opera su agente de IA, transformando la gestión de tokens de una desventaja en una ventaja estratégica. Las Habilidades representan un cambio de paradigma fundamental en el diseño de agentes, alejándose de las directivas estáticas y siempre activas que ahogan la ventana de contexto. Empoderan a los agentes para acceder a vastas capacidades sin la sobrecarga constante.
El núcleo de la eficiencia de Skills es el principio de progressive disclosure. En lugar de incrustar manuales de instrucciones completos en cada turno de la conversación, solo el nombre sucinto de una habilidad y una descripción breve y de alto nivel residen en la ventana de contexto activa del agente. Por ejemplo, una habilidad podría describirse como "analizar informes financieros" o "generar contenido de marketing para redes sociales", ofreciendo la información justa para que el agente comprenda su propósito. Esta pequeña token footprint mantiene la memoria de trabajo ágil y enfocada.
Así es como se desarrolla el flujo de trabajo: el agente de IA, ya sea impulsado por Claude Opus o GPT-5.4, primero escanea la lista de nombres y descripciones de habilidades disponibles. Aprovecha sus capacidades de razonamiento avanzadas para determinar si una habilidad particular es relevante para la tarea inmediata en cuestión. Para un agente de marketing, si un usuario solicita una publicación en redes sociales, la habilidad de "generar contenido de marketing" se vuelve inmediatamente relevante. Solo al identificar una necesidad clara, el agente carga dinámicamente las instrucciones completas y detalladas para esa habilidad específica en su contexto, ejecutando las acciones requeridas.
Considere el marcado contraste en el consumo de tokens, un factor crítico tanto en el costo como en el rendimiento. Una habilidad típica y bien elaborada, con su nombre y descripción, ocupa solo 53 tokens dentro de la context window por cada turno. Esta inversión mínima permite tener una vasta biblioteca de acciones potenciales "en espera". Un archivo `agent.md` equivalente, sin embargo, repleto de instrucciones generales, lógica condicional para múltiples escenarios y definiciones de herramientas, consume más de 944 tokens por turno. Esta asombrosa diferencia significa miles de tokens ahorrados a lo largo de una conversación extendida o una tarea compleja de varios pasos.
Este enfoque eficiente en tokens no solo reduce drásticamente los costos operativos, sino que también mejora significativamente el rendimiento y la fiabilidad del agente. Al evitar que la context window se llene prematuramente con información irrelevante, los agentes mantienen un razonamiento de mayor fidelidad y reducen la probabilidad de "context compaction", donde la información más antigua, potencialmente crucial, se resume o descarta. Progressive disclosure con Skills asegura que su agente opere con máxima precisión, accediendo a conocimientos especializados solo cuando sea realmente necesario, entregando resultados precisos sin el exorbitante impuesto de tokens.
El Co-Pilot Method: Construye Habilidades *Con* Tu Agente, No Para Él
Muchos usuarios, ansiosos por aprovechar las capacidades avanzadas de la IA, identifican instintivamente un flujo de trabajo complejo e inmediatamente intentan escribir un archivo de habilidad completo desde cero. Este enfoque convencional, que recuerda a la preprogramación de un script rígido, a menudo conduce a un bucle ineficiente de prueba y error, quemando tokens valiosos y generando resultados inconsistentes porque las instrucciones teóricas inevitablemente omiten los matices de la ejecución en el mundo real. Dicha autoría anticipada presume una previsión perfecta, un defecto que se hace rápidamente evidente cuando el agente encuentra casos extremos imprevistos.
Ras Mic, un experto en agentic AI, defiende una estrategia radicalmente diferente: el Co-Pilot Method. Esta metodología iterativa y práctica transforma el desarrollo de habilidades de una tarea de codificación solitaria en una experiencia de aprendizaje colaborativo con la propia IA. En lugar de dictar instrucciones, usted guía al agente a través de un proceso, permitiéndole aprender y luego documentar su propio viaje exitoso.
La metodología de Mic proporciona un plan de cinco pasos para desarrollar habilidades robustas y prácticas: - Primero, identifique el flujo de trabajo específico que el agente necesita dominar, ya sea la selección de correos electrónicos de patrocinadores o la generación de informes analíticos. - A continuación, ejecute todo el flujo de trabajo manualmente, **paso a paso, *con* el agente, tratándolo como un aprendiz muy capaz pero sin formación. - De manera crucial, corrija activamente cualquier error, refine las indicaciones y guíe al agente a través de microacciones exitosas en tiempo real. - Solo después de lograr una ejecución completa y sin fallos de todo el flujo de trabajo, se produce el paso final fundamental. - Ordene al agente que cree la habilidad basándose en ese contexto de interacción exitoso**, autodocumentando eficazmente su propio proceso probado.
Considere la formación de un nuevo empleado humano: no simplemente le entregaría un manual denso y teórico y esperaría una ejecución inmediata y perfecta. En cambio, se sentaría a su lado, guiándolo a través de las tareas, ofreciéndole retroalimentación inmediata y dejándolo aprender haciendo. Solo una vez que haya demostrado competencia, documentaría el proceso refinado y probado para futuras referencias. Este enfoque centrado en el ser humano es precisamente lo que el Co-Pilot Method aplica a los agentes de IA, fomentando el aprendizaje orgánico antes de formalizar el conocimiento.
Este enfoque iterativo de "aprender haciendo" garantiza que las habilidades del agente no sean constructos abstractos y teóricos, sino instrucciones robustas construidas sobre una ejecución probada y en el mundo real. Dichas habilidades son inherentemente más resistentes a los casos extremos y dramáticamente más eficientes en el uso de tokens porque capturan la secuencia precisa de acciones y decisiones exitosas. Al construir habilidades *con* su agente en lugar de *para* él, va más allá de la mera instrucción y avanza hacia una competencia genuina y contextualmente consciente, abordando directamente el desperdicio de tokens inherente en los archivos `agent.md` especulativos.
Caso de Estudio: Del Caos del Correo Electrónico a la Información Automatizada
Ras Mic, una voz líder en el desarrollo de agentes de IA, encontró un problema familiar al construir un agente para seleccionar correos electrónicos de patrocinadores. Su intento inicial, armado con una indicación vaga, resultó en un agente que aprobaba a cada patrocinador entrante. El problema central fue una falta fundamental de criterios de rechazo definidos dentro del contexto del agente, lo que llevó a una aceptación indiscriminada.
Sin instrucciones explícitas sobre qué constituía un socio inadecuado o cómo evaluar posibles conflictos de interés, el agente recurrió a un sesgo positivo. Este error común subraya cómo incluso modelos potentes como Claude Opus 4.6 o GPT 5.4 requieren barandillas precisas y restricciones negativas para funcionar eficazmente y evitar una salida "descuidada".
Mic aplicó entonces el Co-Pilot Method, abandonando el enfoque tradicional de preescribir un archivo de habilidad complejo y estático. En cambio, guió interactivamente al agente a través del proceso de selección de patrocinadores paso a paso. Este enfoque colaborativo e iterativo permitió al agente aprender directamente de su flujo de trabajo en el mundo real, capturando la toma de decisiones matizada.
Comenzó haciendo que el agente investigara a fondo a un patrocinador hipotético, instruyéndolo para que extrajera datos relevantes de varias fuentes externas. A continuación, trabajó con el agente para definir criterios granulares tanto para socios deseables como indeseables, articulando puntos de datos específicos, señales de alerta y consideraciones de alineación de marca. Finalmente, establecieron un formato de salida claro y estandarizado para sus recomendaciones, asegurando la coherencia. Para más información sobre la estructuración de tareas de agentes, particularmente con funcionalidades avanzadas, consulte Tool use for Claude.
Este proceso colaborativo culminó en una skill altamente confiable que podía examinar de forma autónoma los correos electrónicos de patrocinadores entrantes. Mic refinó aún más esta skill a través de retroalimentación recursiva, tratando cada clasificación errónea o caso excepcional como una oportunidad. Alimentó los fallos al agente, incitándolo a actualizar el skill file y aprender de sus errores.
Después de varias iteraciones de este ciclo de refinamiento, el agente ahora opera con una precisión notable, manejando de forma autónoma una tarea que antes consumía horas de trabajo manual. La skill final transformó eficazmente un proceso manual que consumía mucho tiempo y era propenso a errores en un generador de insights automatizado, demostrando las profundas ganancias de eficiencia posibles cuando los agentes son entrenados interactivamente para construir skills robustas.
Convierte los Fallos en Características: El Recursive Refinement Loop
Incluso las skills más meticulosamente elaboradas, diseñadas para optimizar el rendimiento del agente de IA y la eficiencia de los tokens, inevitablemente encontrarán casos excepcionales. Nuevos formatos de datos, entradas de usuario inesperadas o complejidades de flujo de trabajo imprevistas pueden hacer que un agente tropiece, lo que lleva a errores o resultados subóptimos. Estos no son solo errores; representan oportunidades de aprendizaje críticas y del mundo real.
Presentamos el Recursive Refinement Loop, una poderosa metodología que transforma los fallos del agente en características robustas y auto-mejorables. Este proceso trata cada paso en falso no como un defecto a ser parcheado externamente, sino como una retroalimentación invaluable que el agente aprovecha para mejorar sus propias capacidades. Inculca un ciclo de mejora continua, alterando fundamentalmente cómo se construyen los sistemas de IA resilientes.
Este refinamiento iterativo sigue una secuencia precisa de tres pasos, poniendo al agente al mando de su propia evolución: - Primero, identifique el error específico o la desviación del resultado deseado. Determine el momento exacto y la razón del fallo, proporcionando un contexto concreto. - Segundo, pida al agente que analice su propio fallo. Instrúyalo para que explique *por qué* falló y, crucialmente, proponga una solución lógica o una instrucción adicional para evitar la recurrencia de ese error específico. - Tercero, ordene al agente que actualice su propio skill file directamente con la lógica recién propuesta. Esta modificación directa codifica la lección aprendida en sus directrices operativas, haciendo que el agente sea profundamente autocorrectivo y adaptativo.
Ras Mic demostró vívidamente este principio con su YouTube analytics report generator. Inicialmente, el agente tuvo dificultades con la variabilidad inherente de diversas entradas de datos y formatos de informe, produciendo con frecuencia resultados inconsistentes o incompletos. A través de cinco rigurosas iteraciones del Recursive Refinement Loop, alimentó sistemáticamente cada fallo único de nuevo al proceso de aprendizaje del agente.
Cada vez, el agente diagnosticó meticulosamente sus deficiencias, formuló soluciones precisas y actualizó sus instrucciones internas dentro del skill file. Este enfoque disciplinado e iterativo transformó un sistema previamente propenso a fallos en un data aggregator impecable. Ahora, el agente ejecuta informes complejos a través de ocho fuentes de datos distintas en aproximadamente diez minutos, entregando consistentemente insights precisos y completos sin intervención humana.
Productivity Over Pizazz: Escalando Agentes de Forma Inteligente
Los desarrolladores a menudo se apresuran a implementar elaborados sistemas multi-agente desde el primer día, seducidos por el atractivo de arquitecturas intrincadas. Este error común prioriza la sofisticación percibida sobre el resultado tangible, lo que a menudo lleva a un exceso de tokens y flujos de trabajo ineficientes antes de que se genere cualquier valor real. Ras Mic, sin embargo, defiende un enfoque más pragmático, enfatizando una estrategia fundamental que prioriza la eficiencia.
En lugar de una complejidad arquitectónica inmediata, Ras Mic aboga por comenzar con un único y potente agente generalista. Este agente central maneja una amplia gama de tareas —desde el cribado exhaustivo de correos electrónicos hasta el análisis detallado de hojas de cálculo y la investigación en profundidad— sin la sobrecarga innecesaria de contrapartes especializadas y prematuras. El objetivo sigue siendo establecer un núcleo robusto y altamente capaz antes de considerar cualquier expansión.
Concentre los esfuerzos en construir meticulosamente una biblioteca completa de habilidades robustas y fiables para este agente principal. Cada habilidad, refinada a través de "bucles de refinamiento recursivo" iterativos como se detalló anteriormente, se convierte en una herramienta precisa y eficiente en el uso de tokens, perfeccionada al máximo. Esta estrategia asegura que el agente generalista domine sus flujos de trabajo centrales, entregando consistentemente resultados predecibles y de alta calidad que minimizan el desperdicio de tokens y maximizan la precisión.
La escalabilidad ocurre solo después de que los flujos de trabajo fundamentales del agente generalista estén perfeccionados y su biblioteca de habilidades esté madura. Introduzca sub-agentes especializados —para áreas distintas como marketing, desarrollo de negocios o tareas personales— estratégicamente, cuando surjan necesidades específicas y complejas. Esta expansión medida y orientada a la productividad evita las trampas de la complejidad prematura, asegurando que cada nuevo componente sirva a un propósito probado y eficiente en lugar de simplemente contribuir a un sistema de apariencia atractiva pero de bajo rendimiento. Priorice la utilidad genuina sobre el atractivo arquitectónico.
El Futuro Agéntico Está Aquí, Si Lo Construyes Bien
La IA Agéntica no es una promesa lejana; es la realidad inmediata con modelos como Claude Opus 4.6 y GPT-5.4. Estos sistemas avanzados demuestran una autonomía y razonamiento sin precedentes, yendo más allá de la simple respuesta a un prompt para orquestar genuinamente tareas complejas. Su poder, sin embargo, sigue dependiendo de la calidad de su marco operativo.
Una biblioteca de habilidades meticulosamente curada se convierte en la base indispensable para aprovechar estos modelos autónomos. En lugar de intentar meter cada instrucción potencial en un único archivo de contexto monolítico, este enfoque modular proporciona a los agentes un conjunto de herramientas preciso y bajo demanda. Permite a la IA acceder dinámicamente a capacidades especializadas, mejorando significativamente la eficiencia y reduciendo el desperdicio de tokens asociado con archivos `agent.md` inflados.
Los conocimientos de incidentes como la fuga de código de Claude (Claude Code leak) subrayan aún más esta necesidad, revelando la profunda complejidad subyacente de la orquestación de agentes de grado profesional. Estos prompts de sistema filtrados demostraron cómo incluso los principales desarrolladores de IA confían en componentes modulares y altamente estructurados para guiar a sus agentes de manera efectiva. Para una comprensión más profunda de estos desarrollos, explore Claude 3 Opus y la frontera de los agentes de IA.
Desarrollar una metodología robusta de creación de habilidades, arraigada en la divulgación progresiva y el refinamiento recursivo, no es, por lo tanto, un mero truco temporal. Esta es una disciplina fundamental para cualquiera que se tome en serio trabajar con IA en los próximos años. Dominar este enfoque asegura que los agentes puedan escalar para una verdadera productividad, en lugar de colapsar bajo el peso de un contexto mal gestionado.
Su Plan de Acción para el Dominio de Agentes
El verdadero potencial de su agente de IA no se desbloquea con archivos `agent.md` masivos o configuraciones complejas de múltiples agentes desde el primer día. En cambio, reside en un enfoque disciplinado para la gestión del contexto y el desarrollo de habilidades. Dominar esta metodología transforma la IA de una novedad que desperdicia tokens en una potencia de productividad.
Siga estos pasos concretos para revolucionar su flujo de trabajo de agentes:
- 1Optimice el Contexto: Abandone los archivos `agent.md` que consumen tokens innecesariamente. Aproveche la inteligencia inherente de modelos como Claude Opus 4.6 y GPT-5.4, confiando en que inferirán el contexto del código base y la conversación.
- 2Emplee la Divulgación Progresiva: Utilice las Skills como su método principal para extender las capacidades del agente. Solo el nombre y la descripción de la skill residen en el contexto activo, cargando las instrucciones completas solo cuando sea necesario, reduciendo drásticamente el consumo de tokens.
- 3Cree Skills al Estilo Co-Pilot: No intente escribir archivos de skill desde cero. En su lugar, identifique una tarea repetitiva y realícela paso a paso con su agente. Una vez que tenga éxito, instruya al agente para que encapsule ese flujo de trabajo en una nueva skill.
- 4Refine Recursivamente: Trate cada fallo del agente como una oportunidad para una nueva característica. Reenvíe el error al agente, permitiéndole diagnosticar el problema y actualizar el archivo de skill para una futura resiliencia. Este ciclo de refinamiento recursivo fortalece continuamente las capacidades de su agente.
- 5Escale para la Productividad: Resista la tentación de construir sistemas multiagente extensos de inmediato. Comience con un agente, centrándose en construir una biblioteca robusta de skills altamente efectivas para sus tareas principales. Expanda solo después de lograr un rendimiento consistente y confiable.
Esta semana, identifique un flujo de trabajo repetitivo en su vida profesional o personal. Podría ser redactar correos electrónicos rutinarios, resumir notas de reuniones u organizar datos. Aplique el Método Co-Pilot: realice esa tarea con su agente en una conversación en vivo, documentando cada paso. Una vez completado, pida al agente que escriba la skill por usted.
Este ejercicio práctico no solo producirá su primera skill personalizada, sino que también incrustará los principios fundamentales de la IA agéntica eficiente. Al dominar este enfoque ágil e iterativo, irá más allá de la mera interacción para desbloquear las profundas ganancias de productividad que el futuro agéntico, impulsado por modelos como Claude Opus 4.6 y GPT-5.4, realmente promete.
Preguntas Frecuentes
¿Cuál es el principal problema con la forma en que las personas usan los agentes de IA hoy en día?
La mayoría de los usuarios sobrecargan la ventana de contexto de la IA con información innecesaria, como archivos `agent.md` extensos. Esto desperdicia tokens, degrada el rendimiento y conduce a malos resultados.
¿Qué son las 'skills' de IA y por qué son más eficientes?
Las Skills son instrucciones autocontenidas para un agente. Utilizan la 'divulgación progresiva', lo que significa que solo el nombre y la descripción están en la ventana de contexto hasta que se necesitan, ahorrando miles de tokens por turno en comparación con otros métodos.
¿Cuál es la mejor manera de crear una nueva skill de IA?
En lugar de escribir una skill desde cero, primero debe realizar la tarea paso a paso con el agente de IA. Una vez que logre un resultado exitoso, pida al agente que escriba la skill basándose en esa conversación probada.
¿Necesito usar archivos `agent.md` o `claude.md`?
Según el experto Ras Mic, el 95% de los usuarios no necesitan estos archivos. Solo deben usarse para información propietaria que debe ser referenciada en cada interacción con el agente.