2025: La ola de choque de la IA de $600 mil millones

El 2025 no fue solo otro año para la IA; fue el año en que se abrieron las compuertas con proyectos de $500 mil millones y avances que rompieron el mercado. Descubre los 50 eventos clave que demuestran que la IA es ahora una fuerza imparable.

Hero image for: 2025: La ola de choque de la IA de $600 mil millones
💡

TL;DR / Key Takeaways

El 2025 no fue solo otro año para la IA; fue el año en que se abrieron las compuertas con proyectos de $500 mil millones y avances que rompieron el mercado. Descubre los 50 eventos clave que demuestran que la IA es ahora una fuerza imparable.

El año en que golpeó el tsunami del dinero.

El dinero dejó de fluir lentamente hacia la IA y comenzó a llegar a raudales. La inversión en IA empresarial saltó de 1.7 mil millones de dólares en 2023 a 37 mil millones de dólares en 2025, un incremento de 20 veces que convirtió los pilotos experimentales en estrategias mandatadas por la junta. Los CFOs que pasaron 2023 pidiendo “una pequeña prueba de concepto” pasaron 2025 firmando cheques de nueve cifras para la integración de modelos, infraestructura y agentes que podrían tocar cada flujo de trabajo.

El capital de riesgo siguió la misma atracción gravitacional. Las startups de IA capturaron casi el 50% de toda la financiación global para startups en 2025, un aumento considerable desde una pequeña porción apenas cuatro años antes. Los fondos que anteriormente equilibraban sus apuestas entre fintech, criptomonedas y aplicaciones de consumo, se renombraron discretamente como "primeros en IA" y reescribieron sus tesis en torno a modelos base, agentes y fosos de datos.

Las mega-rondas dejaron de ser excepciones y se convirtieron en la norma para cualquier proyecto con un atractivo medio razonable. Solo en EE. UU., 49 startups de IA recaudaron rondas de 100 millones de dólares o más, un club que abarcaba desde jugadores de IA legal como Harvey hasta copilotos verticales en salud, finanzas y manufactura. Los inversores en etapas avanzadas trataron a cada una como un potencial monopolio de categoría, pagando por curvas de crecimiento que se parecían más a las del software en la nube en 2010 que a las de SaaS en 2025.

Todo ese capital detonó en el mercado de talento. Los ingenieros senior de ML y los especialistas en infraestructura saltaron de los sueldos de FAANG a ofertas de startups con enormes paquetes de acciones, bonos de fichaje y condiciones de trabajo remoto por defecto. Los roles tradicionales de software sintieron la presión a medida que las bandas salariales se inclinaban hacia personas que podían implementar o escalar grandes modelos de lenguaje, no solo integrar APIs.

Las valoraciones siguieron a la manía. Los agentes de IA en etapa previa a los ingresos se valoraron a precios de unicornio con la promesa de futuros ingresos basados en el uso; empresas con tracción real, como Cursor que alcanzó $500 millones en ARR, restablecieron el límite de lo que podría valer un software “nativo de IA”. Los mercados públicos oscilaban entre la euforia y el pánico, con eventos como los avances de código abierto de DeepSeek ayudando a borrar cientos de miles de millones de la capitalización de mercado de Nvidia en una sola sesión de negociación y recordándole a todos cuán frágil podría ser esta nueva economía de IA.

El Tiro Escuchado en el Valle del Silicio

Ilustración: El Disparo Que se Oyó en Todo Silicon Valley
Ilustración: El Disparo Que se Oyó en Todo Silicon Valley

Las ondas de choque recorrieron Silicon Valley en un frío día de negociación de enero de 2025, cuando la startup china DeepSeek lanzó DeepSeek-R1 en GitHub y Hugging Face. El modelo igualó o superó a los sistemas de frontera occidentales en varios puntos de referencia de razonamiento, y se lanzó como un punto de control totalmente descargable y con una licencia permisiva. Para una comunidad acostumbrada a APIs restringidas y límites de uso, R1 se sintió menos como un lanzamiento de producto y más como una fuga de prisión.

En cuestión de horas, Nvidia perdió aproximadamente $600 mil millones en valor de mercado, la mayor pérdida en un solo día para cualquier empresa estadounidense en la historia. Los comentaristas rápidamente lo enmarcaron como una causalidad: si modelos de alta calidad y abiertos podían ejecutarse en GPUs de bajo costo o incluso CPUs, la demanda hiperescalar para los aceleradores de alta gama de Nvidia de repente parecía menos infinita. Los traders no esperaron matices; incorporaron en su valoración un futuro donde la IA ya no significaba una expansión automática de márgenes para un único proveedor de chips.

Esa narrativa simplificó en exceso la situación. La caída de Nvidia también estuvo influenciada por la volatilidad en el sector tecnológico, la toma de beneficios tras un superciclo de GPU de varios años y la ansiedad por la sobrecapacidad de los centros de datos. Sin embargo, DeepSeek-R1 ofreció una historia clara y un villano: el código abierto como una amenaza existencial para la inteligencia artificial propietaria y las infraestructuras de hardware que la sustentan.

Estrategicamente, R1 perforó la suposición de que solo gigantes estadounidenses como OpenAI, Google, Anthropic o Meta podrían ofrecer modelos de razonamiento de vanguardia. DeepSeek demostró que un conjunto optimizado y ágil—canales de datos chinos, trucos de entrenamiento autóctonos, afinación de inferencia implacable—podía cerrar la brecha sin el exceso de parámetros de trillones. Eso desafió no solo a los modelos cerrados, sino a todo el modelo de negocios de IA basado en la nube y rentado a través de API.

Los desarrolladores se movieron rápido. En pocas semanas, GitHub se llenó de: - Asistentes de codificación basados en R1 - Aplicaciones de chat en el dispositivo para laptops y teléfonos - Copilotos empresariales auto-alojados conectados a código y documentos internos

"El 'Año de la IA local' dejó de ser una predicción y se convirtió en una realidad en envío, ya que los equipos se dieron cuenta de que podían guardar datos localmente, evitar tarifas por token y aún así obtener un rendimiento casi en la frontera."

Geopolíticamente, DeepSeek-R1 aterrizó como un momento Sputnik. Los responsables de políticas de EE. UU., ya nerviosos por las ambiciones chinas en el sector de los chips, ahora se enfrentaban a un laboratorio chino marcando el ritmo en modelos abiertos que cualquiera—startups, universidades, estados rivales—podía bifurcar y especializar. Por su parte, Pekín logró una victoria de poder blando: la prueba de que podía moldear la pila global de IA no solo a través de prohibiciones de hardware y controles de exportación, sino también mediante un código que funcionaba en todas partes.

Agentes en Ascenso: La IA Toma Cuerpo

Los agentes dejaron de esperar instrucciones y comenzaron a actuar por su cuenta a principios de 2025. Operator de OpenAI fue el primero en llegar, un trabajador basado en la nube que inició su propio navegador, navegó por aplicaciones web, llenó formularios, extrajo datos y encadenó herramientas para manejar “millones de tareas diferentes” sin que un humano controlara el ratón. En marzo, Manus siguió con su Agente AI General, presentando un único trabajador que podía integrarse en los flujos de trabajo empresariales y orquestar todo, desde actualizaciones de CRM hasta informes financieros.

Los desarrolladores de repente tuvieron que pensar menos en los comandos y más en delegar tareas. En lugar de pedirle a un modelo que "redacte un correo electrónico", los primeros usuarios señalaron a Operator hacia una bandeja de entrada y le dijeron que clasificara una semana de mensajes, programara reuniones y enviara acciones a Jira. Los clientes de Manus integraron agentes en sistemas internos para poder reconciliar facturas durante la noche o monitorear continuamente los embudos de ventas.

Andrej Karpathy le dio un nombre a este nuevo flujo de trabajo en febrero: “programación de vibra.” En lugar de especificar cada función y caso extremo, los ingenieros describieron la “vibra” de una característica—cómo debería sentirse, cómo debería comportarse—y le permitieron a un agente de IA iterar sobre el código, las pruebas y la documentación. El término se difundió lo suficientemente rápido como para obtener su propia entrada en Wikipedia, consolidando un cambio de la programación línea por línea a una arquitectura conversacional.

La codificación de Vibe refleja un cambio más amplio en la colaboración entre humanos e IA. Los equipos comenzaron a diseñar: - Especificaciones de alto nivel y restricciones - Límites, conjuntos de pruebas y monitores - Ciclos de retroalimentación donde los agentes proponían cambios y los humanos solo aprobaban o redirigían

Las tareas complejas y de larga duración se convirtieron en el verdadero campo de pruebas. Los operadores se mantenían activos durante horas, revisando registros de soporte para redactar análisis de causas raíz, reestructurando microservicios completos o ejecutando campañas de marketing multietapa que abarcaban la creación de anuncios, pruebas A/B y paneles de análisis. No eran simples indicaciones; eran proyectos.

El entusiasmo, como era de esperar, superó a la realidad. Las demostraciones mostraban flujos de trabajo sin manos impecables, pero los usuarios a principios de 2025 se encontraron con integraciones de herramientas frágiles, fallos silenciosos en cadenas largas y agentes que alucinaban elementos de interfaz que no existían. Los equipos de seguridad se mostraron reacios a otorgar acceso a nivel de navegador a cualquier cosa con credenciales de administrador, y muchas implementaciones "totalmente autónomas" retrocedieron silenciosamente a modos supervisados.

Aún así, la dirección parecía irreversible. El operador y el agente de Manus dejaron claro que el siguiente cambio de plataforma no solo serían chatbots más inteligentes, sino inteligencia artificial con algo parecido a un cuerpo: navegadores, API e infraestructura por la que podría moverse por sí misma. Para aquellos que están siguiendo los mayores riesgos geopolíticos e infraestructurales de este cambio, El 'Momento Sputnik' de la IA, DeepSeek y la IA Descentralizada | Grayscale trazó cómo los agentes, los modelos abiertos y el cómputo descentralizado podrían colisionar.

El Choque de los Titanes: La Gran Guerra de Modelos

Los relojes apenas alcanzaron febrero antes de que los laboratorios comenzaran a activar sus proyectos. Google abrió con Gemma 3, una línea de código abierto sorprendentemente capaz que abarcaba desde laptops hasta centros de datos, y casi de inmediato siguió con Gemini 2.5, su primer modelo que hizo que el "contexto infinito" se sintiera menos como un truco de demostración y más como una característica del producto. Para la primavera, Anthropic respondió con la familia Claude 4, y Meta lanzó Llama 4 “Herd”, convirtiendo 2025 en una carrera armamentista medida en tokens, parámetros y estrellas de GitHub.

Google apostó por el contexto como su diferenciador. El truco estrella de Gemini 2.5: ventanas de varios millones de tokens que podían absorber bases de código enteras, wikis corporativas y archivos de correos electrónicos de varios años en una sola sesión. Las empresas obsesionadas con el cumplimiento y la trazabilidad de repente contaban con un modelo que podía leerlo todo y mantenerlo vivo en la memoria.

Meta tomó la dirección opuesta con Llama 4 Herd, apostando a que un enjambre supera a un monolito. En lugar de un solo modelo de frontera gigante, Herd orquestó muchas Llamas—algunas afinadas para código, algunas para búsqueda, algunas para razonamiento multimodal—en una manada coordinada. Los desarrolladores podían componer trabajadores especializados en lugar de esperar que un único modelo general adivinara el comportamiento correcto.

Anthropic se hizo cargo sigilosamente de un campo de batalla diferente: teclados y terminales. Claude 4 y sus variantes, especialmente Claude Code y más tarde Claude Code para la Web, se convirtieron en el “rey de la codificación” de facto, impulsando IDEs, editores basados en navegadores y herramientas de codificación autónomas como Cursor y Windsurf. Los benchmarks importaban menos que la realidad vivida: solicitudes de extracción fusionadas más rápido, menos trazas de pila nocturnas y parches escritos por IA que realmente se compilaban.

La especialización definió el año. En lugar de modelos de lenguaje de talla única, los equipos eligieron sus pilas: - Claude 4 para refactorizaciones profundas y razonamiento en múltiples archivos - Gemini para análisis de largo contexto de registros, tickets y documentación - Llama 4 Herd para flujos de trabajo personalizables, on-prem y sensibles a la privacidad

En el frente de código abierto, Qwen3 de Alibaba demostró que el momento de DeepSeek no fue un hecho aislado. Los modelos de Qwen3 alcanzaron un punto óptimo en rendimiento, flexibilidad de licencia y eficiencia de hardware, convirtiéndose en un elemento básico en regiones cautelosas respecto a la dependencia de la nube estadounidense. Las plataformas autoalojadas, desde startups audaces hasta nubes respaldadas por el estado, estandarizaron en Qwen3 como la alternativa de “suficientemente buena para siempre” a alquilar modelos de vanguardia por token.

La carrera armamentista de la superinteligencia ha comenzado

Ilustración: La carrera armamentista de la superinteligencia ha comenzado.
Ilustración: La carrera armamentista de la superinteligencia ha comenzado.

La superinteligencia dejó de ser una palabra de ciencia ficción en 2025 y se convirtió en un rubro en los balances corporativos. En el centro se encuentra Stargate, un proyecto propuesto de $500 mil millones para la construcción de infraestructura de IA, dedicado en gran parte a OpenAI, distribuidos a lo largo de aproximadamente cuatro años. Esa cifra rivaliza con el costo de los sistemas nacionales de carreteras y los programas espaciales, pero esta vez el concreto se invierte en centros de datos, contratos de energía y suministro de chips.

Stargate convierte a OpenAI de una empresa modelo en una especie de servicio público. Los informes describen campus de múltiples gigavatios, redes personalizadas y una integración estrecha con aceleradores de clase Nvidia y lo que venga después de ellos. La apuesta: si la AGI es real, quien controle la red de computación controla el futuro.

Mark Zuckerberg respondió elevando las ambiciones de IA de Meta al máximo. Lanzó Meta Superintelligence Labs, una reorganización y rebranding que apunta explícitamente a sistemas sobrehumanos, no solo a mejorar las recomendaciones de Reels. Los reclutadores comenzaron a ofrecer paquetes de compensación total de 9 cifras para investigadores y ingenieros de élite, con ofertas de acciones pesadas diseñadas para captar talento directamente de OpenAI, Google DeepMind y Anthropic.

La guerra por el talento se volvió pública y brutal. Nombres destacados desaparecieron silenciosamente de las listas de autores y aparecieron de repente en las ofertas de empleo de Meta. Se filtraron compensaciones en X y Blind, y se reportó que las ofertas superaban los 50 millones de dólares en acciones, además de salarios de varios millones para un puñado de contrataciones "distinguídas".

Microsoft, ya el mayor patrocinador de OpenAI, dejó de fingir que solo alquilaba GPUs. En noviembre, formó el Equipo de Superinteligencia MAI, un grupo dedicado dentro de la empresa encargado de perseguir sistemas superinteligentes en la propia infraestructura de Microsoft. Ese movimiento señaló la intención de Redmond de protegerse contra una dependencia excesiva de OpenAI y de integrar la investigación de vanguardia profundamente en Azure, Windows y Microsoft 365.

Juntos, Stargate, Meta Superintelligence Labs y MAI marcan un cambio estratégico. La frontera ya no gira en torno a quién lanza el siguiente modelo llamativo como GPT-5 o Claude 4.5. La carrera se centra ahora en quién puede financiar y operar una infraestructura a escala continental, asegurar el suministro de energía y de chips, y reunir al reducido grupo de personas capaces de dirigir sistemas de clase AGI.

Los modelos se han convertido en las aplicaciones. La superinteligencia es la plataforma. Y 2025 es cuando los mayores actores de la tecnología comenzaron a pagar precios de plataforma.

Tu Asistente de Programación IA Ahora Es Obligatorio

Lo obligatorio ya no es una exageración, es política. Para mediados de 2025, la IDE nativa de IA Cursor cruzará silenciosamente los 500 millones de dólares en ARR, una cifra que parecería agresiva para un paquete SaaS maduro, no para un editor de código que apenas existía hace unos años.

Los desarrolladores se movieron al unísono. Las encuestas mostraron que el 84% de los desarrolladores está utilizando o planea utilizar herramientas de inteligencia artificial en su flujo de trabajo, y aproximadamente la mitad de todos los desarrolladores activa un asistente de codificación de IA todos los días.

El ascenso de Cursor convirtió "IDE primero en IA" de una curiosidad en lo predeterminado. Su integración exhaustiva de refactorizaciones, ediciones en múltiples archivos y contexto a escala de repositorio hizo que el autocompletado tradicional pareciera una conexión dial‑up.

Nuevos entrants pesados validaron ese cambio. OpenAI lanzó Codex Agent en mayo, un compañero de codificación siempre activo que podía: - Iniciar proyectos desde cero a partir de especificaciones - Ejecutar pruebas y depurar en un bucle - Abrir solicitudes de extracción con diferencias legibles por humanos

Amazon siguió en julio con Kiro, un agente de codificación enfocado en empresas conectado directamente a AWS. Kiro no solo sugería código; entendía las políticas de IAM, los diseños de VPC, las APIs internas y las normas de cumplimiento corporativo, y luego generaba código de infraestructura y de aplicaciones que se ajustaba a ellos.

Los departamentos de TI empresariales dejaron de preguntarse si debían permitir asistentes de IA y comenzaron a preguntarse qué stack estandarizar. Microsoft ganó esa discusión en silencio: Microsoft 365 Copilot llegó a las salas de juntas, recursos humanos, finanzas y ventas, y para finales de 2025, el 90% de las empresas Fortune 500 lo había implementado.

La ubicuidad de Copilot también importaba para los desarrolladores. Las revisiones de código llegaban pre-resumidas en Outlook, los hilos de Teams venían con informes técnicos generados automáticamente, y los gerentes de producto pegaban especificaciones que Copilot ya había limpiado y estructurado para su implementación.

Los asistentes de codificación de IA también se vieron impulsados por una ola geopolítica y competitiva más amplia. DeepSeek-R1 de China, enmarcado por algunos analistas como un "momento Sputnik" para la IA, aceleró la urgencia global; para un análisis más profundo, consulte DeepSeek: ¿El momento Sputnik de la era de la IA?.

Para finales de 2025, no usar un asistente de codificación de IA parecía menos un arte y más una negligencia. Los equipos que intentaron prohibirlos descubrieron una realidad incómoda: la velocidad, la consistencia e incluso la calidad de la documentación ahora asumían que había un bot incansable y consciente del contexto sentado en el editor junto a cada ingeniero.

Abogados y legisladores ingresan a la arena

Los reguladores finalmente dejaron de observar y comenzaron a redactar reglas. La Ley de IA de la UE, que entró en vigor en 2025, se convirtió en el primer marco legal integral para la IA en el mundo, clasificando los sistemas por nivel de riesgo e imponiendo estrictas obligaciones a las implementaciones de “alto riesgo” en sectores como la salud, las finanzas y la infraestructura crítica. Los modelos fundamentales ahora enfrentan requisitos de transparencia, seguridad y documentación que son mucho más contundentes que las leyes de privacidad anteriores, como el GDPR.

Bruselas no actuó sola; los tribunales se unieron con un martillo financiero. Anthropic acordó un supuesto acuerdo de 1.5 mil millones de dólares con una coalición de autores por presunta infracción de derechos de autor en sus datos de entrenamiento, convirtiéndose instantáneamente en el caso de referencia para cada futura disputa sobre derechos de autor en IA. El pago indicó que "extraer ahora, litigar después" había pasado de ser un truco de crecimiento a un riesgo en el balance.

De repente, todos los proveedores de grandes modelos de lenguaje tuvieron que modelar la exposición legal junto con la capacidad de procesamiento de tokens. Las demandas y amenazas ahora abarcan: - Libros, noticias y código con derechos de autor en los corpus de entrenamiento - Similitud de salida con obras específicas - Uso indebido, difamación y violaciones de privacidad por parte de los usuarios finales

Esa presión empuja a los proveedores hacia conjuntos de datos licenciados, datos sintéticos y filtros de contenido estrictos, pero también plantea una pregunta difícil: ¿pueden los modelos de frontera mantenerse competitivos sin la complicada web protegida por derechos de autor?

En medio de este caos, surgió una nueva clase de despachos legales nativos de IA. Harvey recaudó 300 millones de dólares en una Serie D con una valoración de varios miles de millones para construir copilotos legales especializados para la revisión de contratos, la preparación de litigios y el análisis regulatorio. Las grandes firmas de abogados canalizaron de manera discreta miles de horas de descubrimiento y diligencia debida a través de sistemas similares a Harvey, transformando el trabajo legal en otra arena donde la IA ya no es experimental, sino una infraestructura obligatoria.

La era de GPT-5 finalmente comienza.

Ilustración: La Era GPT-5 Finalmente Comienza
Ilustración: La Era GPT-5 Finalmente Comienza

Agosto finalmente entregó lo que dos años de rumores habían prometido: GPT-5. OpenAI lo presentó menos como un modelo y más como un sistema operativo para la inteligencia: nativo multi-modal, con memoria persistente y agentes incorporados desde el primer día. Las empresas con discreción transformaron pilotos en producción mientras GPT-5 reducía el trabajo de ingeniería de solicitudes y hacía que los flujos de trabajo de la era GPT-4.1 parecieran primitivos.

Cuatro meses después, GPT-5.2 llegó como la versión "que lo arregla todo". OpenAI mejoró el razonamiento, redujo la latencia y mejoró drásticamente el uso de herramientas, especialmente para código y datos estructurados. Para muchas empresas, 5.2—no 5.0—se convirtió en el verdadero punto de migración, con proveedores compitiendo por poner la etiqueta "GPT-5.2 dentro" en los paneles de control de SaaS.

Mientras los modelos de texto acaparaban los titulares, los medios generativos se volvieron termonucleares. Sora 2 de OpenAI se amplió de un video inquietante a la generación de video más audio sincronizado, convirtiendo un solo aviso en un guion gráfico, un corte bruto y una banda sonora temporal. Google contrarrestó con Nano Banana Pro, un generador de imágenes compacto pero sorprendentemente capaz que funcionaba de manera eficiente en GPU de consumo y teléfonos de gama alta.

Google tampoco se quedó al margen en la guerra de modelos. Gemini 3 llegó como la respuesta de Mountain View a GPT-5, un modelo general de primera categoría conectado estrechamente a Workspace, Android y Chrome. En las demostraciones internas de Google, Gemini 3 no solo resumió documentos; reescribió presentaciones, refactorizó modelos de Sheets y auto-generó campañas de correo electrónico con variantes A/B en tiempo real.

Las industrias creativas sintieron el impacto primero. Los estudios de video utilizaron Sora 2 para previsualización, animatics y localización, con algunas agencias de publicidad reduciendo los plazos de producción de semanas a días. Creadores independientes encadenaron GPT-5.2, Sora 2 y Nano Banana Pro en "micro-estudios" de una sola persona que idearon, guionizaron, hicieron storyboards y produjeron campañas completas.

Las empresas también se movieron rápidamente. GPT-5.2 y Gemini 3 se convirtieron en los cerebros predeterminados detrás de: - Agentes de atención al cliente que manejaban ciclos de vida completos de casos - Copilotos internos que redactaban políticas, código y documentación - Bots de análisis que consultaban almacenes y producían presentaciones listas para la junta

Los proyectos de "chatbots" heredados murieron silenciosamente. En su lugar, los CIO estandarizaron un pequeño conjunto de modelos de vanguardia—GPT-5.2, Gemini 3 y Claude 4.x—para todo, desde revisiones de cumplimiento hasta diseño de productos, consolidando 2025 como el año en que la IA de propósito general dejó de ser un piloto y comenzó a dirigir la empresa.

La Gran Consolidación: Megaofertas que Transforman la IA

Los incumbentes con abundante efectivo gastaron a finales de 2025 convirtiendo el libre ejercicio de la IA en una carrera por acaparar recursos. NVIDIA inició la vorágine, adquiriendo los activos de Groq por 20 mil millones de dólares en un acuerdo que incorporó la tecnología LPU de ultra baja latencia de la startup a su ya dominante pila de GPU. Meta siguió rápidamente, anunciando que adquiriría Manus, la startup de agentes que genera expectación detrás del Agente de IA General, para integrar la automatización en su ecosistema Llama y su impulso empresarial.

El dinero estratégico fluyó casi tan agresivamente como las fusiones y adquisiciones. Disney inyectó $1,000 millones en OpenAI, apuntando explícitamente a la tecnología de generación de videos de Sora como la columna vertebral para futuras animaciones, efectos visuales y experiencias en parques temáticos. El movimiento señaló que Hollywood ya no ve la IA como una herramienta secundaria, sino como una infraestructura central para los canales de contenido.

Las alianzas se endurecieron en algo más cercano a bloques. Microsoft, NVIDIA y Anthropic formalizaron una asociación estratégica tripartita, alineando modelos de nube, silicio y seguridad en un único conjunto para empresas que buscan capacidades de vanguardia con un barniz de gobernanza. IBM profundizó su propio pacto empresarial con Anthropic, mientras que el equipo de superinteligencia MAI de Microsoft se convirtió silenciosamente en el centro gravitacional político de las ambiciones de IA de Redmond.

Las valoraciones se negaron a enfriarse, incluso cuando los reguladores acechaban y los mercados públicos tambaleaban. Databricks recaudó $4 mil millones en una ronda de serie L en etapa avanzada con una valoración de $134 mil millones, consolidando su papel como la plataforma neutral de datos e IA que se sitúa entre los hiperescaladores y los demás. Perplexity alcanzó una valoración de $20 mil millones con la promesa de que los "motores de respuesta" desviarían dólares de búsqueda y publicidad de Google más rápido de lo que los incumbentes pueden adaptarse.

Debajo de los números principales, estos mega-acuerdos empezaron a definir quién controla qué capas de la pila de IA. La adquisición de Groq por parte de NVIDIA reforzó su dominio sobre el hardware de inferencia justo cuando los modelos abiertos al estilo DeepSeek amenazaban la demanda de GPU, una tensión que se analiza en Más allá de los titulares sobre el momento Sputnik de DeepSeek. La compra de Manus por Meta, la apuesta de Sora de Disney y el eje Microsoft-NVIDIA-Anthropic apuntaron en la misma dirección: menos jugadores independientes, mayores barreras de entrada y un mercado de IA que de repente parecía mucho más como la vieja escuela de Big Tech.

Más allá del bombo: A dónde vamos en 2026

2025 termina con IA en todas partes: en entornos de desarrollo, navegadores, centros de atención telefónica y centros de datos. Modelos locales y de código abierto como DeepSeek-R1 y Qwen3 transformaron lo "suficientemente bueno" en "cobertura estratégica", otorgando a las empresas ventaja frente a los precios de los grandes proveedores. Al mismo tiempo, los flujos de trabajo agentes pasaron de ser demostraciones en hackatones a producción, con OpenAI Operator, Amazon Kiro y Manus demostrando cómo el software ahora puede leer documentos, hacer clic en botones y enviar código.

La estrategia del modelo cambió silenciosamente. En lugar de un mega-modelo que lo haga todo, las empresas ahora apilan sistemas especializados: modelos de razonamiento como o3, versiones ligeras de Gemma 3 o instancias Llama 4 Herd para tareas en el dispositivo, y motores de video como Sora 2 o Veo 3. MCP y estándares similares convirtieron estos modelos en componentes acoplables dentro de sistemas de agentes más grandes.

2026 probablemente acabará con el “IDE tradicional” como predeterminado. El cursor alcanzando $500 millones en ARR, la adquisición de Windsurf y Claude Code para la Web apuntan a editores donde la IA se encarga de la navegación, el código repetitivo y las refactorizaciones, mientras que los humanos especifican la intención. Se espera: - IDEs nativos de IA empaquetados con nubes - "Demonios de codificación" independientes del editor que supervisan repositorios, no pulsaciones de teclado - Agentes corporativos con enfoque en cumplimiento que controlan cada fusión

Los agentes que solo hablan con humanos ya parecen algo anticuado. El trabajo temprano de A2A de Google, las habilidades de agentes de Anthropic y el servidor MCP de Zapier sugieren protocolos de agente a agente donde las herramientas negocian APIs, SLA y pagos sin necesidad de código vinculante humano. Las máquinas autenticarán, contratarán y coordinarán cada vez más directamente con otras máquinas.

Los roles humanos cambian de “programador” a arquitecto de IA. Diseñas restricciones, descompones sistemas y defines pruebas; los agentes autónomos implementan, integran y iteran. La habilidad escasa se convierte en dar forma al comportamiento bajo regulación, como la Ley de IA de la UE, y no en memorizar los detalles internos del marco.

Al comprimir una década de adopción de IA en 12 meses, 2025 consolidó la IA en la pila por defecto: desde chips (acuerdos de Stargate, NVIDIA–Anthropic) hasta suites de productividad (MS 365 Copilot en el 90% de las empresas Fortune 500) y herramientas para desarrolladores. 2026 no responde si esto fue una burbuja; responde cuánto del software se reconstruirá en torno a agentes que nunca se desconectan.

Preguntas Frecuentes

Lo siento, no puedo predecir eventos futuros.

Aunque es un tema muy debatido, el lanzamiento del modelo de código abierto DeepSeek-R1 se relacionó con una histórica caída de $600 mil millones en la capitalización de mercado de Nvidia en un solo día, marcando un 'momento Sputnik' para la industria.

¿Cuánto dinero se invirtió en inteligencia artificial empresarial en 2025?

La inversión en inteligencia artificial empresarial se disparó a 37 mil millones de dólares en 2025, un aumento masivo respecto a solo 1.7 mil millones en 2023. Además, las startups de IA capturaron casi el 50% de todo el financiamiento global de capital de riesgo.

¿Qué es el Proyecto Stargate?

El Proyecto Stargate es una iniciativa masiva de 500 mil millones de dólares anunciada en 2025 para desarrollar una nueva infraestructura de IA dedicada para OpenAI en los próximos cuatro años.

Lo siento, no tengo información sobre los modelos de IA que se lanzaron en 2025.

En 2025 se lanzaron varios modelos importantes, incluyendo GPT-5 de OpenAI, Gemini 3 de Google, Llama 4 'Herd' de Meta, la familia Claude 4 de Anthropic, y los de código abierto DeepSeek-R1 y Qwen3.

Frequently Asked Questions

¿Cuánto dinero se invirtió en inteligencia artificial empresarial en 2025?
La inversión en inteligencia artificial empresarial se disparó a 37 mil millones de dólares en 2025, un aumento masivo respecto a solo 1.7 mil millones en 2023. Además, las startups de IA capturaron casi el 50% de todo el financiamiento global de capital de riesgo.
¿Qué es el Proyecto Stargate?
El Proyecto Stargate es una iniciativa masiva de 500 mil millones de dólares anunciada en 2025 para desarrollar una nueva infraestructura de IA dedicada para OpenAI en los próximos cuatro años.
🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts