TL;DR / Key Takeaways
El Nuevo Panel de Poder de IA: Por Qué Estas Voces Son Importantes Ahora
Forward Future se ha convertido silenciosamente en una de las salas de guerra de IA más influyentes de internet. El presentador Matthew Berman ahora habla a diario con una audiencia de más de 500,000 creadores y tomadores de decisiones a través de YouTube, X y su boletín Forward Future, entrelazando lanzamientos de modelos, escasez de chips y luchas políticas en un único flujo muy aplicable. Sus transmisiones de Forward Future Live funcionan menos como shows de YouTube y más como informes estratégicos en tiempo real para personas que están apostando sus carreras en la IA.
La alineación del 12/12/2025 parece una instantánea de la pila de IA en 2026. La investigadora de OpenAI, Tejal Patwardhan, representa la capa de modelo fundamental que todavía marca el ritmo para los demás. Fabian Stelzer, cofundador de Glif, aporta la capa de agentes que convierte esos modelos en flujos de trabajo autónomos. Además, Christina Cacioppo y Jeremy Epling de Vanta anclan la seguridad y el cumplimiento, mientras que Spenser Skates, CEO y cofundador de Amplitude, cierra el círculo con análisis de producto y datos de comportamiento del usuario.
Tomados en conjunto, estos invitados cubren todo el recorrido desde GPU hasta KPI empresariales. OpenAI define capacidades y limitaciones. Glif experimenta con hasta dónde puedes llevar a los agentes antes de que fallen—o de que causen problemas. Vanta responde si alguno de esto puede pasar una auditoría SOC 2 o el comité de riesgos de un banco, y Amplitude rastrea si los clientes realmente utilizan las funciones de IA que los equipos siguen lanzando.
Todo esto ocurre en un momento volátil, posterior a GPT-5.2. El rendimiento del modelo volvió a aumentar, pero la reacción del mercado pasó de la pura admiración a preguntas difíciles sobre costo, fiabilidad y control. Los capitalistas de riesgo ahora cierran acuerdos “solo de IA” en menos de 15 minutos, pero esos cheques exigen cada vez más historias de implementación reales, no solo gráficos de referencia.
Las empresas, por su parte, dejaron de tratar la inteligencia artificial como un experimento. Los equipos de Fortune 500 ahora integran modelos de la clase GPT en soporte al cliente, búsqueda interna y análisis, mientras los reguladores se apresuran a mantenerse al día y las leyes estatales sobre IA se estancan en los tribunales. El panel de Berman se sitúa exactamente en esa línea de falla: las personas que construyen los modelos, los agentes que actúan en tu nombre, las salvaguardias que mantienen tranquilos a los reguladores y los tableros de control que demuestran si todo esto valió la pena.
La Visión de Glif: Su Fuerza Laboral de Agentes de IA Está Aquí
El cofundador de Glif, Fabian Stelzer, habla sobre los agentes de la misma manera en que los primeros pioneros de la web hablaban sobre los navegadores: como el nuevo entorno de ejecución, no solo otra aplicación. En lugar de una sola ventana de chatbot, imagina enjambres de agentes autónomos coordinándose a través de APIs, almacenes de datos y herramientas SaaS, transfiriendo tareas como en una línea de producción. Un agente elabora la estrategia, otro extrae análisis, un tercero negocia con proveedores o servicios en la nube, todo sin que un humano integre el flujo de trabajo.
Ese cambio lleva a la IA de "característica inteligente" a "orquestador del trabajo". El Glif de Stelzer trata a los agentes como bloques de construcción composables: pequeños procesos especializados que pueden observar eventos, desencadenar acciones y llamar a otros agentes. No solo se le da una indicación a un modelo; se diseña un sistema donde los agentes mantienen el contexto a lo largo de los días, recuerdan las reglas de negocio y solo escalan cuando la confianza cae por debajo de un umbral.
Para los desarrolladores, esto se relaciona directamente con el Vibe Coding Playbook de Matthew Berman: describir la intención, las limitaciones y la “vibra” deseada, y luego dejar que los agentes se encarguen del cableado. En lugar de integrar manualmente 10 SDKs, un desarrollador define objetivos como “monitorear el riesgo de deserción y lanzar experimentos de retención”, y un gráfico de agentes determina qué APIs llamar, qué tableros actualizar y cuándo alertar a una persona en Slack. La codificación pasa a centrarse más en especificar límites y menos en escribir código de enlace.
Las empresas ven eso como una ventaja, no como una novedad. Una startup de 10 personas puede crear un "equipo de crecimiento de IA" de agentes que: - Monitorean cambios de competidores a diario - Generan automáticamente pruebas A/B - Envían actualizaciones a herramientas como Amplitude y plataformas de publicidad
Cada agente opera las 24 horas del día, los 7 días de la semana, tiene un costo de centavos por hora y registra cada decisión para cumplir con las normativas y para análisis posteriores.
Las principales plataformas están compitiendo por poseer esta capa. Los ejecutivos de AWS ahora hablan de flujos de trabajo agentes en la misma oración que el silicio personalizado y las bases de datos vectoriales, posicionando Bedrock y Step Functions como la columna vertebral de los sistemas multi-agente. Microsoft, Google y OpenAI están convergiendo en pilas similares: modelos alojados, almacenes de memoria, buses de eventos y motores de políticas ajustados para agentes que actúan, no solo chatean.
Un mundo centrado en agentes se siente diferente para creadores y empresas. Los productos se lanzan con “asignar un agente a esto” integrado—investigación, alcance, QA, finanzas. Las hojas de ruta comienzan con, “¿Qué agentes son responsables de este proceso?” en lugar de “¿Qué equipo puede liberar un sprint?”
La próxima frontera de OpenAI: Más allá de los modelos fundamentales
La demanda de IA empresarial dentro de los paneles de OpenAI se asemeja menos a una curva y más a una pared. Tejal Patwardhan describió cómo el uso por parte de clientes de Fortune 500 se multiplica de un trimestre a otro a medida que los equipos integran modelos al estilo GPT en operaciones de ventas, soporte al cliente y sistemas de conocimiento internos, a menudo a través de "pilotos ocultos" antes de que los CIO ever aprueben. Para OpenAI, esos patrones convierten la investigación abstracta en requisitos de producto concretos: fiabilidad, latencia, cumplimiento y puntos de integración profunda.
Después de GPT-5.2, la agenda de investigación de OpenAI parece inclinarse hacia sistemas de auto-mejora en lugar de simplemente hacia monolitos más grandes. Imagina flotas de modelos que se reentrenan continuamente con datos aprobados por los usuarios, generan herramientas automáticamente y aprenden a orquestar agentes especializados. Ese cambio se alinea con lo que Fabian Stelzer está construyendo en Glif, donde las redes de agentes ya encadenan modelos, APIs y memoria; para un vistazo a ese futuro, consulta el Sitio Oficial de Glif.
Los comentarios de Patwardhan sugieren una estructura donde los modelos actúan como meta-optimizadores: escriben código, diseñan experimentos, evalúan resultados y reintegran los mejores resultados en nuevas versiones. El autoaprendizaje transformó la inteligencia artificial en juegos; OpenAI ahora busca la auto-iteración en la investigación, flujos de trabajo empresariales e incluso en la experiencia del usuario del producto. La evaluación se convierte en algo tan estratégico como los datos de entrenamiento, con pruebas de referencia sintéticas y pruebas de estrés basadas en agentes ejecutándose sin parar.
Las proyecciones sobre la generación de "nuevo conocimiento" por parte de la IA para 2028 dividieron al panel. Los optimistas argumentan que, una vez que los modelos puedan proponer hipótesis de manera autónoma, realizar simulaciones y extraer datos multimodales, la producción científica podría aumentar hasta 10 veces en campos específicos como la ciencia de materiales o el descubrimiento de fármacos. Los escépticos responden que los cuellos de botella—la validación en laboratorio, la regulación y el conservadurismo institucional—limitarán el impacto mucho tiempo después de que los modelos superen la revisión literaria humana.
Los futuros huéspedes señalaron tres limitaciones que hacen que el 90% del conocimiento generado por IA en 2-3 años parezca agresivo: - Techos de hardware y energía - Regulaciones legales y de seguridad - Confianza humana y tasas de adopción
Para las empresas que están planificando hojas de ruta para 2026-2028, la trayectoria de OpenAI plantea decisiones difíciles. Apostar únicamente por modelos fundamentales estáticos arriesga la obsolescencia a medida que los competidores adoptan pilas agentivas y auto-mejoradas que pueden reconfigurar flujos de trabajo semanalmente. Los equipos más inteligentes están presupuestando para la integración continua con las APIs de OpenAI, la gobernanza de datos que anticipa el reentrenamiento automatizado y organigramas donde "operaciones de IA" se sitúa al lado de DevOps y seguridad.
Advertencia de Vanta: El enorme punto ciego de seguridad de la IA.
La confianza se quiebra más rápido de lo que cualquier modelo puede completar automáticamente, y Christina Cacioppo y Jeremy Epling están tratando eso como el verdadero límite de velocidad de la IA. Desde su perspectiva en Vanta, las empresas no solo están adoptando sistemas de clase GPT; los están integrando silenciosamente en datos de clientes, código de producción y toma de decisiones sin nada que se asemeje a una revisión de seguridad.
Apresurarse a integrar modelos en CRM, repositorios de origen y sistemas de pago crea un nuevo radio de explosión. Un asistente de IA "inocente" que puede leer tickets de Jira, registros de Stripe y mensajes directos de Slack se convierte en una herramienta perfecta de movimiento lateral una vez que una sola clave de API se filtra o un token de OAuth es robado.
Las listas de verificación tradicionales de AppSec no se corresponden de manera clara con el comportamiento de la IA. Los modelos pueden exfiltrar datos a través de salidas, filtrar ejemplos de entrenamiento e inferir atributos sensibles a partir de registros "anonimizados". La inyección de prompts, la contaminación de datos y los jailbreaks ya no son hipotéticos; son la nueva inyección SQL, y la mayoría de los equipos de seguridad no tienen guías de respuesta ni monitoreo para ello.
Cacioppo y Epling argumentan que los equipos de cumplimiento enfrentan un dilema doble: los reguladores exigen control sobre sistemas opacos que los proveedores no pueden explicar completamente. Cuando un modelo produce una recomendación financiera errónea o redirige información de salud protegida (PHI), ¿quién es el responsable del informe del incidente: la empresa, el proveedor del modelo o el integrador que une todo?
La regulación solo amplifica el caos. Las empresas que desarrollan productos de IA a nivel nacional deben navegar por un mosaico de: - Proyectos de ley sobre IA a nivel estatal - Normas sectoriales para salud, finanzas y educación - Nuevos marcos federales y de la UE sobre IA
Las leyes estatales bloqueadas o estancadas no eliminan la fricción; crean incertidumbre. Los equipos retrasan características o limitan silenciosamente capacidades geográficamente porque nadie quiere lanzar una herramienta de suscripción de IA o un filtro de contratación que podría violar un estatuto reactivado o una nueva interpretación de la FTC seis meses después.
La seguridad, en el marco de Vanta, no puede ser solo una tarea de última etapa. Tratar la confianza y la compliance como requisitos de producto de primera clase—minimización de datos, registros auditables para cada decisión de IA, clara procedencia de los modelos—se convierte en la única manera de seguir avanzando una vez que los reguladores, auditores y clientes se pongan al día.
Las empresas que ganen la carrera de IA en 2026 no solo tendrán agentes más rápidos o GPUs más grandes. Tendrán un rastro de evidencia: informes SOC 2 que incluyan sistemas de IA, calificaciones de riesgo en tiempo real para solicitudes y salidas, y una historia sobre seguridad que pueda sobrevivir tanto a una violación como a una citación.
Los Datos son Rey: Amplitude sobre el Impacto Real de la IA
Los datos, no las sensaciones, deciden si la IA está funcionando realmente. Ese es el argumento central de Spenser Skates: si no estás midiendo cada clic, aviso y finalización con una pila de análisis de producto como Amplitude, simplemente estás adivinando. Los DAUs, las curvas de retención y las caídas del embudo revelan qué características de IA adoptan, ignoran o evitan activamente los usuarios.
Skates impulsa a las empresas a rastrear el uso de la IA a nivel de características, no como un solo bloque de "interacción con la IA". Los equipos necesitan saber si un asistente de escritura basado en IA aumenta la finalización de documentos en un 20%, o si un copiloto de soporte reduce el tiempo promedio de atención de 7 minutos a 3. Sin esa telemetría de comportamiento, los ejecutivos solo ven un rubro en la factura de la nube, sin saber si realmente cambió el comportamiento del usuario.
El ROI de la IA, argumenta, reside en una cadena simple: llamada al modelo → acción del usuario → resultado empresarial. Se mide vinculando los eventos de IA a métricas como: - Tasa de finalización de tareas - Tiempo hasta el valor o tiempo hasta la resolución - Conversión, expansión y cancelación
Si una función de búsqueda de IA eleva las consultas exitosas del 55% al 80% y aumenta la conversión en un 5%, eso es un ROI rentable, no una victoria en una demostración.
Los datos también atraviesan la guerra de marketing entre ChatGPT, Gemini, Claude y el resto. El mundo de Skates se preocupa menos por qué modelo obtiene mejores resultados en pruebas sintéticas y más por cuál genera más documentos enviados, tickets cerrados o paneles creados por usuario activo. Cuando realizas pruebas A/B de modelos detrás de la misma interfaz, los análisis revelan un claro ganador en el éxito de las tareas y la fidelización de los usuarios.
Esa telemetría se convierte en un marcador en vivo para la carrera de la plataforma de IA. Si cambiar de un LLM a otro reduce silenciosamente el uso activo semanal en un 10% o aumenta los clics de ira provocados por errores, sabes que el modelo "más barato" realmente te ha costado dinero. El panorama competitivo deja de ser un concurso de entusiasmo y se convierte en un conjunto de datos.
La iteración continua se basa en esta pila de medición. Los equipos que lanzan características de IA semanalmente pueden observar gráficos de cohortes e informes de recorridos para ver cómo se adaptan los usuarios, y luego refinar los mensajes, las medidas de seguridad y la experiencia del usuario. El mensaje de Skates: las empresas que ganen en IA no solo ajustarán los modelos; también ajustarán el comportamiento, utilizando los datos como su bucle de retroalimentación.
El acuerdo de capital de riesgo de 15 minutos: ¿Está la IA en una burbuja?
Las hojas de términos de quince minutos se han convertido silenciosamente en la nueva norma en inteligencia artificial, con rondas de financiación semilla y Series A que se cierran en una sola llamada de Zoom y una página compartida de Notion. Los inversores que buscan una oportunidad “una vez en una generación” se anticipan entre sí con una debida diligencia ligera, apostando a que no respaldar a la próxima OpenAI duele más que apoyar a 10 futuras pérdidas. Los cofundadores se jactan de capturas de pantalla de sus calendarios donde una presentación en frío se convierte en un SAFE firmado antes del almuerzo.
El capital hiperrápido tiene una ventaja obvia. Equipos como Glif pueden contratar ingenieros, comprar tiempo de GPU y lanzar características agentes meses más rápido de lo que jamás lo hicieron las startups SaaS tradicionales. Tejal Patwardhan de OpenAI describió empresas que pasan de un piloto a contratos multimillonarios en un trimestre, lo que convierte la velocidad en una default racional—siempre que peligrosa.
Los costos se acumulan igual de rápido. Christina Cacioppo y Jeremy Epling advirtieron que el cumplimiento, SOC 2 y la gobernanza de datos rara vez mantienen el ritmo con los acuerdos de 15 minutos, dejando la seguridad como una adaptación en lugar de una restricción de diseño. El crecimiento de Vanta refleja cómo muchas empresas de inteligencia artificial necesitan una capa de confianza añadida después del subidón de financiación; más detalles se encuentran en el Sitio Oficial de Vanta.
Detrás de la locura yace una brutal carrera de infraestructura. Las startups queman capital fresco en clústeres NVIDIA H100, escasos arrendamientos de A100, o aceleradores estilo Groq, a menudo comprometiéndose a mínimos de varios años en la nube con AWS, Azure o Google Cloud. Si se pierde una ventana de asignación de GPU, todo su hoja de ruta se retrasa un trimestre.
Esa carrera se extiende a las personas, no solo a los chips. Los cofundadores están cortejando a ex-investigadores de DeepMind y OpenAI con una compensación total de más de $500,000 y acciones que asumen resultados de decacornio para 2027. Spenser Skates de Amplitude argumentó que los incumbentes ricos en datos pueden gastar más que los equipos en etapa temprana en talento e infraestructura, forzando a los jugadores más pequeños a enfocarse en verticales estrechos o a una fusión y adquisición agresiva.
Los plazos comprimidos deforman la estrategia de producto. En lugar de validar casos de uso con cuidadosas analíticas, muchas startups de IA lanzan copilotos a medio cocinar y luego se desesperan cuando la retención y el uso diario activo se desploman. Los consejos esperan cambios drásticos a “nivel GPT-4” cada 6–9 meses, a pesar de que el entrenamiento de modelos, las evaluaciones y las revisiones de seguridad no se comprimen en la misma curva.
Burbuja o no, el mercado ya está valorando resultados de ciencia ficción. Si esos avances se retrasan—porque los chips siguen escasos, los reguladores se afianzan, o los usuarios simplemente llegan a un estancamiento—las negociaciones de 15 minutos de hoy podrían convertirse en las largas y feas rondas de retroceso de mañana.
La Batalla por el Alma de la IA: Abierta vs. Cerrada
La inteligencia artificial abierta frente a la cerrada ya no parece una guerra cultural de GitHub; es una lucha por quién controla la cognición a gran escala. De un lado están las pilas centralizadas como OpenAI, Anthropic y Google, que agrupan modelos de vanguardia, alojamiento y capas de seguridad detrás de API. Del otro, la familia Llama de Meta y un grupo de laboratorios más pequeños promueven licencias permisivas, inferencia local y pesos de modelo que realmente puedes tocar.
Los defensores del sistema cerrado argumentan que solo los sistemas controlados de manera estricta pueden manejar modelos de un billón de parámetros, entrenamientos de múltiples miles de millones de dólares y los regímenes de seguridad exigidos por los reguladores. Los defensores del código abierto contraargumentan que la reproducibilidad y la capacidad de bifurcación son los únicos verdaderos controles sobre el poder concentrado de la inteligencia artificial. Señalan a Llama 3, Mistral y las derivadas de DeepSeek abiertas como prueba de que la calidad ya no pertenece exclusivamente a laboratorios sellados.
La geopolítica ahora atraviesa directamente las tarjetas de modelo. Las startups estadounidenses hablan cada vez más de “americanizar” poderosos modelos extranjeros como DeepSeek: eliminando o reentrenando datos alineados con el PCC, añadiendo salvaguardias legales estadounidenses y dirigiendo todo a través de proveedores de nube estadounidenses. Washington, Bruselas y Pekín quieren una IA de frontera que se alinee con sus propias leyes, idiomas y valores.
Eso crea una dinámica extraña: pesos abiertos entrenados en China o Europa, ligeramente adaptados por empresas estadounidenses y luego reexportados como productos empresariales "seguros". Los halcones de política se preocupan de que esto aún filtre capacidades a través de las fronteras; los defensores del código abierto argumentan que intentar poner fronteras nacionales alrededor de las matemáticas fracasará, tal como ocurrió con la criptografía fuerte en la década de 1990.
Bajo las luchas por las licencias se encuentra una división filosófica más profunda. Algunos laboratorios persiguen silenciosamente una única superinteligencia masivamente capaz que actúa como un servicio global: un modelo, muchos inquilinos. Otros, incluidos plataformas centradas en agentes como Glif, imaginan miles de millones de pequeños agentes personalizados adaptados a las preferencias, datos y tolerancia al riesgo de cada persona.
Los desarrolladores se encuentran en la línea de falla. Las API cerradas ofrecen escalabilidad instantánea, SLAs de tiempo de actividad y casillas de verificación de cumplimiento que Vanta puede auditar, pero limitan a los equipos en términos de precios, políticas de contenido y actualizaciones de modelos opacas. Los modelos abiertos permiten a los ingenieros fijar versiones, ajustar datos propietarios y ejecutar localmente o en GPU más económicas, a expensas de un mayor trabajo operativo y responsabilidad de seguridad.
La distribución del poder en la era de la IA probablemente seguirá esta elección. Si las plataformas cerradas prevalecen, un puñado de empresas de EE. UU. y China se convertirán en utilidades cognitivas, alquilando razonamiento. Si los ecosistemas abiertos continúan multiplicándose, la IA se asemejará más a Linux o Android: desordenada, fragmentada, pero finalmente controlada por muchos, no por unos pocos.
¿El Último Impulso de la Humanidad? El Futuro del Trabajo Redefinido
La Última Guía de Ingeniería de Prompts de la Humanidad, que Berman promueve como un manual de supervivencia, se lee menos como una hoja de trucos y más como una descripción de trabajo para la próxima década: no serás la persona que hace el trabajo, serás la persona que le dice a un ejército de agentes de IA qué hacer. El arte de dar instrucciones deja de ser un truco de salón y se convierte en ciencia de gestión, más cerca de redactar una especificación de producto o un documento legal que de charlar con un bot.
Los flujos de trabajo que solían ser lineales ya se fragmentan en enjambres de agentes. Un marketero ya no "crea una campaña"; orquesta un conjunto de agentes que: - Rastrean a la competencia - Generan variantes de texto - Ejecutan automáticamente pruebas A/B en Amplitude - Distribuyen activos en plataformas de anuncios
En ese mundo, los títulos de trabajo mutan silenciosamente. Un “analista senior” comienza a parecerse a un líder de equipo de IA, supervisando de 10 a 50 agentes, revisando casos límite y estableciendo límites en lugar de construir paneles de control línea por línea. Los desarrolladores pasan de escribir a mano el código estándar a diseñar sistemas autómatas que llaman a APIs, monitorizan registros y se autocorrigen.
Las interfaces también van más allá de la pestaña del navegador. Las interfaces conversacionales ya se encuentran en Slack, Notion y Figma; para 2026, la audiencia de Berman espera superficies nativas de IA como gafas inteligentes al estilo de Gemini, dispositivos portátiles inspirados en Limitless de Meta y auriculares contextuales que escuchan reuniones y susurran acciones sugeridas. Tu "computadora" se convierte en una red de sensores, cámaras y micrófonos que alimentan a un agente persistente que conoce tu calendario, código y contratos.
Eso cambia lo que significa "software de productividad". En lugar de aplicaciones, las personas se suscriben a equipos de IA verticales: un equipo de finanzas que cierra los libros, un equipo de ventas que prioriza oportunidades, un equipo de cumplimiento que prepara auditorías de Vanta. El trabajo humano se desplaza hacia la adjudicación de compensaciones: costo vs. precisión, riesgo vs. velocidad, privacidad vs. personalización.
La narrativa apocalíptica—la IA como un mero destructor de empleos—pasa por alto esta reallocación. Los invitados de Berman enmarcan repetidamente la IA como un multiplicador de fuerzas que crea nuevas categorías de productividad: una persona gestionando lo que solía ser una oficina de 20 personas, o un cofundador solitario estableciendo toda una máquina de comercialización en un fin de semana. La parte difícil no será encontrar tareas para la IA; será mejorar las habilidades de los humanos lo suficientemente rápido como para gestionar lo que de repente se han vuelto capaces de hacer.
La Guerra de Infraestructura que No Ves
El poder, no los comandos, decide quién realmente lanza la inteligencia artificial. Detrás de cada demostración de agente y cada actualización de GPT se encuentra una brutal carrera de infraestructura de la que los asiduos de Forward Future hablan constantemente, pero que los consumidores rara vez ven. Las GPU, los centros de datos y los enlaces de fibra ahora funcionan como los verdaderos límites de la API.
Los responsables de políticas en EE. UU. finalmente tratan la capacidad de semiconductores como una cuestión de seguridad nacional. La Ley CHIPS y Ciencia destina más de 52 mil millones de dólares para traer de vuelta las fábricas avanzadas al país, con TSMC, Intel y Samsung construyendo o ampliando plantas en Arizona, Ohio y Texas. Quien controle la producción por debajo de 3 nm controla la velocidad a la que se pueden entrenar los próximos modelos de generación.
Ese cambio convierte a las fábricas con sede en EE. UU. en puntos críticos geopolíticos. Los controles de exportación ya restringen los envíos de productos de alta gama como el NVIDIA H100 y B200 a China, fragmentando la cadena global de inteligencia artificial. Los bloques rivales ahora compiten por asegurar su propio talento de diseño, herramientas de litografía y capacidad de empaquetado para evitar quedarse del lado equivocado de un corte de suministros.
El silicio por sí solo no gana esta guerra; son las personas las que lo hacen. Los principales investigadores en IA y los ingenieros de infraestructura reciben paquetes de compensación que rutinariamente superan los 1 a 3 millones de dólares al año en efectivo y acciones. OpenAI, Google DeepMind, Meta y una plétora de startups bien financiadas se roban personal entre sí en silencio cada trimestre, y una sola deserción puede inclinar toda una hoja de ruta del producto.
Esa brecha de talento se manifiesta en la rapidez con la que los equipos pueden aprovechar el nuevo hardware. Entrenar un modelo de frontera ahora requiere cientos de miles de aceleradores, software de orquestación que no se desmorone con más de 10,000 nodos, y ingenieros que pueden reducir algunos puntos porcentuales en las pérdidas de utilización. Las empresas que no pueden contratar a esos especialistas terminan alquilando capacidad a quienes sí pueden.
Groq ilustra la presión sobre los nativos de infraestructura. Sus clústeres de inferencia basados en LPU ofrecen un rendimiento de tokens impresionante, pero la demanda de plataformas de agentes y copilotos empresariales ya empuja las listas de espera y los techos de capacidad regional. Cuando una sola aplicación viral puede aumentar el uso de 10 a 20 veces de la noche a la mañana, incluso los proveedores bien capitalizados se apresuran a añadir estantes, energía y refrigeración.
Forward Future los invitados lo enmarcan como un nuevo tipo de bloqueo de plataforma. Los creadores que desean comprender dónde se encuentran las verdaderas limitaciones—chips, energía, ancho de banda o inteligencia—terminan siguiendo las noticias de infraestructura tan de cerca como los lanzamientos de modelos, a menudo comenzando con centros como **Forward Future de Matthew Berman**.
Su Plan de Acción 2026: Lo que Hacen los Constructores a Continuación
El momentum ahora favorece a las personas que pueden lanzar productos de IA, no solo hablar de ellos. En los próximos 12–18 meses, los creadores deben tratar a los agentes, los datos y la seguridad como características de producto de primera clase, no como ideas secundarias. Eso significa pasar de “hemos agregado un LLM” a “todo nuestro flujo de trabajo opera con agentes autónomos que son observables, probables y responsables.”
Comienza con flujos de trabajo agentes. Herramientas como Glif apuntan a un defecto inminente donde los productos orquestan flotas de agentes especializados: uno para investigación, uno para ejecución, uno para control de calidad. Los desarrolladores deberían prototipar flujos estrechos y de alto retorno de inversión—alcance de ventas, triage de soporte, operaciones internas—y luego interconectar a los agentes con traspasos claros y opción de intervención humana.
La demanda empresarial está explotando en torno a plataformas como OpenAI, pero las empresas buscan fiabilidad, no demostraciones. Los creadores deben diseñar teniendo en cuenta los SLA, la auditabilidad y la redundancia de proveedores a través de OpenAI, Anthropic y modelos abiertos. Esto incluye estrategias explícitas de cambio de modelo, presupuestos de latencia y controles de costos integrados en la arquitectura, no añadidos en la adquisición.
La seguridad ahora decide quién se despliega a gran escala. El mensaje de Vanta es claro: la IA sin gobernanza se convierte en un motor de exfiltración de datos no monitoreado. Los equipos deben: - Clasificar los datos antes de que lleguen a un modelo - Registrar cada solicitud y respuesta que toque sistemas sensibles - Mapear el uso de la IA a SOC 2, ISO 27001 y reglas del sector desde el primer día
La estrategia de datos separa los juguetes de las empresas duraderas. El mundo de Spenser Skates en Amplitude gira en torno a instrumentar cada interacción de IA: mensajes, respuestas, ediciones de usuarios, acciones posteriores. Los creadores deben tratar las características de IA como cualquier experimento de crecimiento: realizar pruebas A/B con los mensajes, medir el impacto en la retención y descartar lo que no afecta a los indicadores clave.
Nadie necesita hacer esto en aislamiento. El ecosistema Forward Future de Matthew Berman—boletín informativo, directorio de herramientas y comunidad—funciona como un mapa en tiempo real de lo que está funcionando entre más de 500K creadores. Úsalo para evaluar combinaciones de herramientas, descubrir herramientas centradas en agentes y seguir la evolución de las mejores prácticas.
El próximo año y medio establece la jerarquía permanente de los ganadores de IA. La expansión de hardware, las capacidades de los modelos y los contratos empresariales se solidifican para 2026. Cualquiera que quiera tener una posición en la economía de IA necesita estar implementando agentes, asegurando datos y midiendo el impacto real—ahora, no en el próximo ciclo de financiamiento.
Preguntas Frecuentes
¿Qué es Glif y de qué habló su cofundador?
Glif es una plataforma para crear y utilizar agentes de IA. El cofundador Fabian Stelzer habló sobre el cambio de herramientas de IA de un solo aviso a flujos de trabajo agentales complejos e interconectados que automatizarán procesos enteros para desarrolladores y empresas.
¿Cómo está Vanta abordando los riesgos de seguridad de la IA?
Vanta, representada por su CEO y CPO, se centra en la confianza y el cumplimiento para los sistemas de IA. Destacaron la necesidad urgente de marcos de seguridad sólidos para gestionar los riesgos a medida que las empresas adoptan rápidamente la IA, especialmente con la evolución de las regulaciones.
¿Cuáles fueron las conclusiones clave del investigador de OpenAI?
La investigadora de OpenAI, Tejal Patwardhan, probablemente brindó información sobre el enorme aumento en la adopción de la inteligencia artificial en las empresas. La discusión apuntó hacia futuros desarrollos de modelos más allá de GPT-5, incluyendo inteligencia artificial auto-mejorada y plazos agresivos para el conocimiento generado por IA.
¿Por qué es importante el análisis de datos para el futuro de la IA?
Spenser Skates, CEO de Amplitude, enfatizó que el análisis de datos es crucial para entender la recepción de los usuarios de IA en el mundo real y el retorno de inversión (ROI). Los datos ayudan a las empresas a medir el impacto real de las características de IA y guían el desarrollo futuro de productos.