TL;DR / Key Takeaways
El billete de lotería AGI
Los inversores están valorando a OpenAIAI como si ya poseyera el futuro. Las ventas secundarias de acciones y los objetivos internos ahora sitúan las valoraciones en el rango de $500 mil millones a $1 billón, cifras que colocan a una startup de siete años en la misma liga que Meta y Nvidia. Esa etiqueta de precio no refleja un negocio que vende llamadas API y contratos empresariales; refleja un resultado de fantasía donde OpenAIAI da a luz una inteligencia general artificial dominante en el mundo.
Esta es la teoría del billete de suerte de AGI. Los patrocinadores no están comprando flujos de caja descontados de una empresa de SaaS; están comprando una opción de compra sobre la invención de un “dios digital” que puede transformar todas las industrias a la vez. Si llega AGI y OpenAIAI lo controla, la valoración actual parece económica; si no, los números colapsan al entrar en contacto con la realidad.
Enmarcado de esa manera, OpenAIAI deja de parecer una empresa y empieza a parecer una apuesta estructurada. La historia solo funciona si se ignoran lo que David Shapiro llama cuatro pilas de fallos que sustentan la estructura: foso, ecosistema, modelo de negocio y financiación. Cada uno parece frágil en un mundo donde Gemini, Claude, DeepSeek y modelos de código abierto de OpenAI compiten por la paridad en modelado.
En teoría, OpenAIAI es una utilidad de token. Vende generaciones de texto, imagen y video contabilizadas por millones de tokens, una API de productos básicos que las empresas pueden intercambiar por Gemini, Claude, Llama o Mistral con un cambio de configuración. Cuando Sam Altman prometió “inteligencia demasiado barata para medir”, implícitamente socavó lo único que OpenAIAI mide actualmente.
Las estimaciones de ingresos se agrupan alrededor de $3 a $4 mil millones en 2024, posiblemente acercándose a $10 a $20 mil millones en las proyecciones más optimistas durante los próximos años. Los costos de entrenamiento e inferencia, además de los compromisos para chips y centros de datos, son órdenes de magnitud más altos, con informes públicos de cientos de miles de millones en gastos de capital planificados a través de socios como Microsoft, Oracle y CoreWeave. Esa matemática exige un crecimiento exponencial y precios premium en un mercado que ya está corriendo hacia el fondo.
Hype dice que OpenAI es una inevitabilidad de un billón de dólares. El balance financiero, el panorama competitivo y la economía unitaria dicen que es un boleto de lotería de alto riesgo cuyo gran premio puede que nunca se sortee.
Pilar 1: La increíble fosa que desaparece
El "moat" solía significar algo en IA. A principios de 2023, GPT-4 sobresalía sobre Bard y cada experimento de OpenAI. Para finales de 2024, Gemini 1.5 Pro, Claude 3.5 Sonnet y DeepSeek-V3 ya igualaban o superaban a GPT-4 en los principales benchmarks como MMLU, GSM8K y HumanEval, y Gemini 2.0 y Gemini 3 ya están enfocándose en los modelos más nuevos de OpenAI, no en los del año pasado.
Google ahora afirma que Gemini 1.5 Pro supera a GPT-4 en más del 80% de sus evaluaciones internas, mientras que Anthropic destaca que Claude 3.5 Sonnet supera a GPT-4 en generación de código y razonamiento a largo plazo. Los benchmarks en chino y bilingües de DeepSeek muestran paridad o un mejor rendimiento que GPT-4 en varias tareas de lenguaje a una fracción del costo. La "ventaja" del modelo se redujo de años a trimestres y luego a meses.
La llamada salsa secreta detrás de estos sistemas ya no es un secreto. Las leyes de escalado de OpenAI, DeepMind y Anthropic dicen lo mismo: más datos, más computación, ganancias predecibles. Las variantes de transformadores, la mezcla de expertos, la generación aumentada por recuperación y la sintonización de instrucciones son recetas estándar, no arte místico.
Cada laboratorio importante ahora publica suficientes detalles de arquitectura y entrenamiento para que los competidores puedan reconstruir los aspectos generales. El stack CUDA de Nvidia, PyTorch, JAX y las bibliotecas de entrenamiento de OpenAI reducen la distancia entre un artículo de investigación y un modelo a escala de producción. La ventaja reside en los detalles de implementación y la infraestructura, no en algún descubrimiento algorítmico oculto.
Mientras tanto, los modelos de código abierto de OpenAI pasaron de ser juguetes a convertirse en opciones predeterminadas. Llama 3 70B y Mistral Large alcanzan o se acercan al rendimiento de GPT-4 en muchas cargas de trabajo empresariales cuando se ajustan. Las empresas están implementando cada vez más:
- 1Llama 3 variantes de GPU privadas
- 2Mistral 7B/8x22B para APIs de baja latencia.
- 3Ajustes personalizados para tareas específicas del dominio
El control, la residencia de datos y el costo impulsan ese cambio. Un banco u hospital puede ejecutar Llama 3 en su propio hardware, mantener la información de salud protegida (PHI) o datos de comercio internamente y evitar un interruptor de apagado de un solo proveedor. Para muchos CIOs, "lo suficientemente bueno y en propiedad" supera a "ligeramente mejor y alquilado".
La superioridad tecnológica en la IA ahora se descompone en un ciclo de 6 a 12 meses. No se puede respaldar una valoración de $1 billón sobre un liderazgo que desaparece cada vez que un rival lanza un nuevo hito hacia Hugging Face.
Pilar 2: Un Ecosistema Construido sobre Arena
OpenAIAI vende una sola cosa: tokens. Los ingresos provienen de la medición de llamadas a la API y del uso de ChatGPT, un modelo de producto único que se asemeja menos al ecosistema de Apple y más a una empresa de servicios públicos. Incluso los informes optimistas como OpenAIAI cruza los 12 mil millones en ARR: La carrera de 3 años que redefinió lo que es posible en la escalabilidad del software conceden silenciosamente que el negocio principal es "infraestructura de IA basada en el uso".
Apple, Google y Microsoft no venden modelos; venden entornos. iOS, Android y Windows están en miles de millones de dispositivos, con asistentes predeterminados, teclados, navegadores y suites de productividad donde la IA se convierte en una característica, no en un producto. Esa integración les permite intercambiar en silencio Gemini, Claude o un modelo interno sin preguntar a los usuarios.
Los sistemas operativos convierten los modelos fundacionales en piezas reemplazables. Microsoft puede integrar Copilot directamente en: - El shell de Windows y la búsqueda del sistema - Aplicaciones de Office como Word, Excel y Outlook - Herramientas de desarrollo de Azure y GitHub
Bajo esas superficies, el modelo real se convierte en un detalle de implementación. GPT-4 hoy, Gemini o un modelo propio de Azure mañana.
Microsoft ya anticipa esta postura. Copilot Studio y Azure AI Studio fomentan el enrutamiento de modelos entre GPT-4, GPT-4o, Meta Llama, Mistral y modelos empresariales propietarios. Si OpenAI aumenta precios, se retrasa en calidad o se equivoca en seguridad, Microsoft puede desviar su tráfico a otro lado con un cambio de configuración.
Los desarrolladores ven lo mismo. Cada proveedor importante de LLM expone una API REST con JSON de entrada y JSON de salida. Herramientas como LangChain, LlamaIndex y "enrutadores de modelos" personalizados permiten a los equipos alternar entre GPT-4, Claude 3.5, Gemini 2.0 o DeepSeek con unas pocas líneas de configuración. El bloqueo de proveedores se evapora cuando todos los caminos parecen `POST /v1/chat/completions`.
Los usuarios sienten casi ninguna fricción. Una startup puede cambiar su backend de OpenAIAI a Anthropic durante un fin de semana y anunciar "ahora más rápido y más barato" el lunes. Para un gerente de producto, GPT-4 no es una infraestructura sagrada; es un concepto que invita a arbitraje cada vez que un rival reduce precios o publica un mejor referente.
Pilar 3: La paradoja del 'demasiado barato para medir'
OpenAIAI no vende un producto tanto como vende un medidor. Cada dólar de ingresos fluye a través de una capa de abstracción: los tokens. Llama a la API, transmite un texto, recibe una factura por el uso, igual que los kilovatios-hora en una factura de electricidad o los gigabytes en un plan de celular.
Eso hace que OpenAIAI se parezca menos a Apple y más a Con Edison. Gasta una cantidad asombrosa en capital en centros de datos, GPUs de Nvidia y aceleradores personalizados para producir "inteligencia" como una utilidad comoditizada, y luego cobra fracciones de un centavo por cada mil tokens mientras los rivales corren para bajar ese precio.
El mantra de Sam Altman, “inteligencia demasiado barata para medir”, socava accidentalmente toda esta estructura. Si el precio futuro de la inferencia tiende a cero, lo único que OpenAI sabe vender actualmente—inteligencia medida—evaporará como un centro de ganancias.
Catch-22: La valoración de OpenAIAI incluye cientos de miles de millones en flujos de caja futuros provenientes de la venta de tokens, mientras su propia dirección promete un mundo donde los tokens apenas cuestan algo. No puedes ser una utilidad de un billón de dólares y vivir al mismo tiempo en un mundo post-medidor donde el uso es prácticamente gratuito.
La historia ya realizó este experimento con la energía nuclear. En la década de 1950, funcionarios estadounidenses prometieron electricidad "demasiado barata para medir", pero luego descubrieron que las plantas nucleares costaban decenas de miles de millones de dólares para construir, asegurar y desmantelar, mientras que los reguladores y los mercados mantenían los precios minoristas bajos.
Las empresas de energía nuclear nunca se convirtieron en queridas de la tecnología con altos márgenes; se volvieron infraestructuras de bajo retorno y fuertemente reguladas. Sus costos fijos astronómicos no podían ser compensados vendiendo electrones extremadamente baratos, por lo que los contribuyentes y los consumidores silenciosamente asumieron la diferencia.
OpenAIAI enfrenta un desajuste estructural similar. Entrenar modelos de frontera cuesta miles de millones por generación, y las hojas de ruta de la industria hablan de instalaciones a escala "Stargate" de más de 100 mil millones, sin embargo, los precios de la API ya sienten la presión de una carrera hacia el fondo por parte de DeepSeek, Llama y Mistral.
A medida que los modelos de código abierto de OpenAI se acercan al rendimiento de clase GPT‑4 en hardware común, las empresas cada vez más optan por autoalojarse o usar nubes más baratas, tratando a los LLM como Linux o Python en lugar de un SaaS premium. Los márgenes se comprimen justo cuando la intensidad de capital aumenta.
Los inversores están apostando efectivamente a que OpenAI puede desafiar la economía de la utilidad: construir las "plantas de energía" más caras del mundo y, de algún modo, escapar a la gravedad de vender vatios de inteligencia baratos e intercambiables.
Pilar 4: El Agujero Negro Financiero
OpenAIAI se parece menos a una startup y más a un agujero negro financiero. Entrenar modelos de vanguardia, activar clústeres de inferencia y mantener los centros de datos funcionando consume miles de millones anualmente, mientras que los ingresos reportados se sitúan más cerca de decenas de miles de millones, en el mejor de los casos. La diferencia entre los ingresos y el gasto en infraestructura obliga a un estado permanente de recaudación de fondos.
Esa presión explica la escala de proyectos como Stargate, la supuesta construcción de un superordenador de más de 100 mil millones de dólares. OpenAI no puede hacerse cargo de eso sola, por lo que se apoya en socios que requieren mucha inversión, como Microsoft, Oracle y empresas de arrendamiento de GPU como CoreWeave. Estos socios, a su vez, financian el sueño con sus propias apuestas de deuda y capital.
Oracle ilustra la fragilidad de esta estructura. Comentadores como David Shapiro estiman las obligaciones de Oracle en aproximadamente $126–127 mil millones en deuda, con una gran parte venciendo en los próximos tres años. El aumento de las tasas y el enorme gasto en inteligencia artificial hacen que refinanciar esa carga sea cada vez más costoso, incluso si un incumplimiento total sigue siendo poco probable.
Cuando un patrocinador clave tiene ese tipo de influencia, la duración de OpenAIAI depende del balance de otra persona. Si Oracle u otro proveedor de servicios en la nube reduce su gasto, los proyectos a gran escala como Stargate se retrasan o reducen. OpenAIAI debe entonces encontrar un nuevo patrocinador o recaudar capital con promesas de AGI aún más agresivas.
El ciclo de financiamiento comienza a parecerse menos a un plan de negocios y más a una máquina de movimiento perpetuo impulsada por el hype. El patrón es el siguiente:
- 1Promesa de IA y aumentos de productividad que devoran el mundo.
- 2Recauda fondos de inversores y socios estratégicos.
- 3Gasta ese dinero en GPUs, centros de datos y entrenamientos.
- 4Incurrir en enormes costos fijos y compromisos de deuda a largo plazo.
- 5Necesitamos un crecimiento aún más rápido para justificar la próxima ronda.
- 6Promete una AGI aún más cercana y rica para mantener el flujo de capital.
Cualquier ruptura en esa cadena expone la economía subyacente de la unidad. Vender tokens medidos en un mercado en guerra de precios no puede cubrir las apuestas de infraestructura a escala de $100 mil millones sin márgenes extraordinarios que los APIs commoditizados rara vez sostienen. Si los precios del modelo tienden a bajar mientras los costos de computación y los gastos por intereses tienden a subir, la brecha se amplía.
Los inversores están valorando efectivamente una utilidad con flujo de caja negativo como si fuera un monopolio de software de alto margen. Eso solo funciona mientras el capital siga siendo barato, los socios se mantengan solventes y la narrativa de la AGI continúe inflándose. Si cualquiera de esos pilares tambalea, la historia de un billón de dólares de OpenAI choca con su balance.
Tres Rutas hacia la Ruina
Tres caminos se extienden desde la trayectoria actual de OpenAI, y ninguno se asemeja al limpio cuento de hadas tecnológico de un billón de dólares que sugiere su valoración en el mercado privado. Cada ruta proviene del mismo problema estructural: un laboratorio que consume capital unido a una misión sin fines de lucro, que ofrece una especulativa lotería de AGI a inversores que, mayoritariamente, buscan flujos de efectivo, no filosofía.
El escenario uno es la extracción de propiedad intelectual. Microsoft ya posee una licencia perpetua para los modelos y la tecnología subyacente de OpenAIAI, y ejecuta esos modelos en Azure, Windows, Office y Copilot. Si la economía de OpenAIAI se deteriora, Microsoft puede conservar las joyas de la corona—pesos, código y talento a través de contrataciones selectivas—mientras permite que la entidad con ganancias limitadas se marchite en un laboratorio de I+D zombi empapado de deudas.
Bajo ese resultado, OpenAIAI se convierte en un glorificado laboratorio de innovación para su mayor patrocinador. Microsoft sigue vendiendo Copilot y Azure AI con mínima interrupción, utilizando Gemini, Claude o un modelo interno si OpenAIAI falla. Los inversores que compraron el billete de lotería de la AGI descubren que en realidad estaban financiando las herramientas de IA de Microsoft a precios de estilo de capital de riesgo y márgenes de estilo de utilidad.
El escenario dos es la implosión de WeWork. Se informa que OpenAIAI ha alineado o discutido compromisos de computación y chips por un monto de cientos de miles de millones de dólares a lo largo de una década, con algunos análisis que proyectan hasta 1 billón de dólares en necesidades de infraestructura; consulte el gasto en infraestructura de OpenAIAI de 1 billón de dólares. Si el crecimiento de los ingresos se detiene, esas obligaciones a largo plazo se convierten de activos estratégicos en una pesadilla de convenios.
Una desaceleración en el uso de la API o en los contratos empresariales podría desencadenar una crisis en la que OpenAI no pueda cumplir con los compromisos de pago garantizado a sus socios de nube y centros de datos. En ese punto, los acreedores e inversores estratégicos presionan por una escisión: vender la propiedad intelectual del modelo a los hiperescaladores, deshacerse de los arrendamientos de centros de datos y seguir adelante con el equipo de investigación. Lo que queda se asemeja menos a una empresa de plataforma generacional y más a la cáscara post-IPO de WeWork: activos subastados, marca empañada, visión entregada a quien sea que compre los escombros.
El escenario tres es el fraude de salida a bolsa. Con valoraciones privadas rondando entre 500 y 750 mil millones de dólares, la única manera de recuperar la inversión de los primeros inversores a un precio elevado es a través de una oferta pública inicial espectacular en torno a "GPT‑6" o "AGI temprano". La presentación se escribe sola: ingresos en rápido crecimiento, un tamaño de mercado único en la historia y una hoja de ruta casi mítica de modelos de razonamiento que supuestamente colapsarán los costos laborales en toda la economía.
Sin embargo, los mercados públicos finalmente valoran la economía unitaria, no las sensaciones. Si OpenAI se hace pública antes de solucionar su dependencia de los tokens medidos, los precios subsidiados y el enorme capex, los inversores minoristas se convierten en los que se quedan con las pérdidas. Las instituciones y los privilegiados salen ante la promesa de una divinidad digital; todos los demás se despiertan siendo propietarios de una utilidad glorificada con expectativas de tecnología de lujo y márgenes de planta de energía.
¿El capitán equivocado para un barco a la deriva?
Sam Altman construyó su reputación como un emprendedor con un superpoder: conseguir financiación y crear narrativa. Desde Loopt hasta Y Combinator y OpenAIAI, su habilidad principal ha sido convencer al capital de que el futuro está a solo una ronda de financiación de distancia. Ese talento ayudó a impulsar a OpenAIAI a una valoración rumoreada de 500 mil millones a 1 billón de dólares, no por métricas aburridas como márgenes o flujo de caja predecible.
Sin embargo, escalar esa promesa se asemeja menos a un día de demostración de YC y más a administrar un servicio público global. Satya Nadella convirtió a Microsoft en un gigante de la nube de $3 billones, trabajando arduamente en la logística: implementaciones de Azure, contratos empresariales, guerrillas regulatorias. Tim Cook transformó silenciosamente a Apple en una superpotencia de la cadena de suministro que puede mover cientos de millones de iPhones al año con tasas de defectos de un solo dígito y un control de costos implacable.
OpenAIAI, en contraste, gasta miles de millones en GPU, energía y centros de datos mientras depende de socios como Microsoft y Oracle para la infraestructura. Ese modelo exige un operador obsesionado con el capex, la disponibilidad y la economía unitaria, no solo con alguien que pueda insinuar "AGI pronto" en el escenario. Nadella o Cook dirigen sistemas donde el fracaso se ve como un apagón o un trimestre perdido; Altman dirige un motor de hype donde el fracaso se presenta como el colapso de la narrativa.
La controvertida estructura de ganancias limitadas de Altman agudizó esas preocupaciones. La junta no lucrativa controla técnicamente la rama con fines de lucro, pero el diseño funcionó como una píldora envenenada de gobernanza que ayudó a Altman a consolidar influencia mientras aislaba a OpenAI de la presión normal de los accionistas. El golpe de la junta de 2023 y la rápida reinstalación expusieron cuán turbia es realmente esa control y cuán poca responsabilidad tradicional existe para una empresa que maneja tecnología con el potencial de impactar a la civilización.
Luego está el problema de la óptica. Altman habla de “beneficiar a toda la humanidad”, mientras que, según informes, compra bienes raíces de lujo, invierte en fábricas de chips personalizadas y apoya proyectos ultraexclusivos como Worldcoin. Ese consumo ostentoso socava el halo moral y hace que la cruzada de OpenAI por la AGI se parezca menos al altruismo y más a una apuesta personal de alto riesgo y alta recompensa.
El Amanecer de la Era de la IA 'Solar'
Llamémoslo la Gran Desagregación. Después de una breve era en la que GPT-4 parecía un cerebro centralizado en la nube, la IA se está fragmentando en miles de modelos más pequeños, económicos y locales que no se preocupan por quién entrenó primero al mayor transformador.
En los últimos dos años, la IA ha vivido en su Era Nuclear. OpenAIAI, Microsoft, Oracle y CoreWeave presentaron proyectos como "Stargate" como apuestas de billones de dólares en centros de datos de megaescala, cada uno de los cuales requiere decenas de gigavatios de energía, millones de aceleradores de Nvidia y AMD, y un gasto de capital que se asemeja más a un plan de infraestructura nacional que a una actualización de software.
Ese modelo asume un futuro en el que todos alquilan inteligencia de un puñado de reactores hiperescalables. Pero la curva del hardware está tomando una dirección diferente. Apple, Qualcomm, Google e Intel están incorporando NPUs cada vez más capaces en teléfonos, laptops y dispositivos de edge, transformando la "IA en la nube" en "IA en tu bolsillo."
Los chips A18 y M4 de Apple superan los 38 TOPS de rendimiento de ML en el dispositivo; el Snapdragon X Elite de Qualcomm anuncia más de 45 TOPS en su NPU. El Pixel 9 de Google ejecuta Gemini Nano localmente. Las variantes Llama 3.2 de 3B y 1B de Meta funcionan en laptops de consumo e incluso en teléfonos de gama alta sin sobrecalentar las baterías.
Esta es la Era Solar de la IA: muchos “paneles” pequeños y baratos en todas partes en lugar de unos pocos reactores gigantes. Descargas un modelo de 3 mil millones de parámetros, lo ajustas en tu laptop y, sin necesidad de acceder a la API de OpenAI, se encarga silenciosamente del triaje de correos electrónicos, la finalización de código y la búsqueda de documentos.
Los desarrolladores ya están optimizando para este mundo. Las pilas populares dirigen las solicitudes a través de: - Modelos pequeños en el dispositivo para latencia y privacidad - Modelos de tamaño medio de OpenAI (Llama, Mistral, DeepSeek) en la nube económica - Solo los problemas más difíciles a modelos premium de frontera
Cada paso de esa lógica de enrutamiento commoditiza aún más OpenAIAI. Si el 80% de las interacciones de los usuarios utilizan modelos locales gratuitos o de costo fijo y backend de bajo margen de OpenAI, el mercado total direccionable para los tokens de GPT medidos se reduce drásticamente.
El ganador se lo lleva todo solo funciona cuando todos deben pasar por tu peaje. En la Era Solar, la inteligencia se parece menos a un servicio de monopolio y más a Wi-Fi: ambiental, intercambiable y empaquetada en el hardware que ya compraste.
Tu estrategia empresarial en un mundo post-OpenAI.
Olvídate de apostar tu hoja de ruta a un único proveedor "dios de la IA". Los desarrolladores y directores de informática deben asumir la paridad de modelos como la norma y diseñar para la rotación: espera que el mejor modelo de hoy sea el de gama media de mañana, y que la relación calidad-precio siga descendiendo. La estrategia cambia de “¿Qué modelo gana?” a “¿Qué tan barato puedo intercambiarlos y combinarlos?”.
Las empresas ya están votando con sus clústeres. Cada vez más, los grandes bancos, aseguradoras y compañías farmacéuticas se estandarizan en Llama 3 y Mistral 7B/8x22B para cargas de trabajo internas porque pueden ejecutarlos en sus propias GPU, mantener los pesos y los datos en sus instalaciones, y evitar el alquiler por token. Cuando puedes ajustar un modelo de 70 mil millones de parámetros una sola vez y amortizar ese costo en miles de flujos de trabajo, la API ajustada de OpenAI rápidamente se convierte en la opción premium, no en la predeterminada.
La arquitectura independiente del modelo se vuelve obligatoria. Los equipos deben colocar delante de todas las llamadas LLM un enrutador de modelos que pueda elegir dinámicamente entre: - Modelos locales de código abierto de OpenAI para tareas económicas y de baja latencia - API en la nube (GPT-4.1, Claude 3.5, Gemini 2.0) para razonamiento complejo - Modelos especializados para código, visión o voz
Ese enrutador debería rastrear la calidad, la latencia y el costo por solicitud, y luego arbitrar en tiempo real.
La verdadera defendibilidad radica en los datos, la infraestructura y el producto, no en revender el modelo base de otra persona. Prioriza: - Procesos de datos rigurosos, limpieza y etiquetado - Generación aumentada por recuperación sobre tu corpus propietario - Integración ajustada en sistemas existentes (CRM, ERP, EMR, IDEs)
Los inversores y las juntas directivas deberían interrogar a cualquier startup cuyo principal argumento de venta sea “nosotros usamos GPT.” Si se puede sustituir por DeepSeek, Claude o Llama con un cambio de configuración, también podrán hacerlo los competidores. Como un contrapeso sobrio a las presentaciones de los proveedores, empareja el propio informe de OpenAIAI El Estado de la IA Empresarial 2025 - OpenAIAI con tus curvas de costos internas y considera los modelos de base como utilidades intercambiables, no como un destino.
¿Está ya muerto el Dios Digital?
La fantasía de un billón de dólares de OpenAI se sostiene sobre cuatro pilares que ya parecen agrietados. El foso se evaporó cuando Gemini 3, Claude y DeepSeek lograron o superaron a GPT-4 en benchmarks desde MMLU hasta pruebas de codificación. El “ecosistema” nunca se materializó más allá de las API y ChatGPT, el modelo de negocio se reduce a vender tokens medidos, y la estructura de financiamiento se asemeja a una máquina de movimiento perpetuo de nuevo capital persiguiendo pérdidas antiguas.
La demanda de IA claramente no se limita. Cada flujo de trabajo empresarial, aplicación para consumidores y servicio backend puede absorber más automatización, más resumidos, más razonamiento. La restricción está del lado de la oferta, donde el modelo de escala nuclear de enormes entrenamientos centralizados choca con la física, el gasto de capital y las redes eléctricas.
El entrenamiento de modelos de la clase GPT ya consume miles de millones en GPUs, centros de datos y electricidad por ciclo. OpenAI y sus socios han propuesto compromisos que superan los $1 billón para futuros chips y computación, una cifra que solo tiene sentido si el uso, los precios y la paciencia de los inversores aumentan juntos indefinidamente. Mientras tanto, Llama de OpenAI y DeepSeek-V3 funcionan en hardware de consumo y disminuyen los márgenes de "inteligencia como utilidad".
Los inversores no están valorando una empresa SaaS normal en 40-50 veces sus ingresos; están valorando un monopolio sobre AGI en sí mismo. La apuesta implícita: una empresa captura un “dios digital”, asegura la propiedad intelectual y la alquila de vuelta al mundo. Esa fantasía ignora la paridad de modelos, la supervisión regulatoria y la brutal historia de los servicios públicos y las telecomunicaciones, donde la intensidad de capital aplastó los rendimientos desmesurados.
Los mercados atraviesan manías donde un solo nombre se convierte en sinónimo de toda una tecnología: Netscape para la web, BlackBerry para teléfonos inteligentes, MySpace para redes sociales. Cada uno parecía inevitable hasta que el ecosistema maduró, los estándares se consolidaron y el valor se trasladó a otros lugares. La IA se encuentra ahora en ese punto de inflexión.
La IA no desaparecerá cuando la valoración de OpenAI se desinfle; se dispersará. Los modelos se integrarán en chips, sistemas operativos, navegadores y herramientas verticales especializadas, mientras que los pesos de OpenAI se multiplican como distribuciones de Linux. La empresa que primero vendió al mundo una interfaz de chat para la "inteligencia" podría terminar como un puente espectacular pero temporal entre el internet previo a la IA y lo que venga después de que se rompa el ciclo de hype.
Preguntas Frecuentes
¿Cuáles son los principales argumentos en contra de la enorme valoración de OpenAI?
Los argumentos principales son que OpenAI carece de una ventaja competitiva, no tiene un cierre de ecosistema, opera con un modelo de negocio insostenible y commoditizado, y enfrenta riesgos financieros extremos debido a su masivo gasto de capital y tasa de quema.
¿Por qué se compara el modelo de negocio de OpenAI con el de una empresa de servicios públicos?
El negocio principal de OpenAI es la venta de tokens de API, que es similar a una empresa de servicios públicos que vende electricidad. Este modelo implica enormes costos iniciales (centros de datos) para un producto comercializado con márgenes bajos y un alto potencial de rotación de clientes, a diferencia de los monopolios de software de alto margen.
¿Qué es el proyecto 'Stargate'?
Se informa que Stargate es un proyecto de supercomputadora de varios cientos de miles de millones de dólares, planeado por OpenAI y sus socios, como Microsoft. Representa el inmenso gasto de capital necesario para entrenar modelos de IA de próxima generación, lo que los críticos argumentan que es financieramente insostenible.
¿Existen alternativas viables a OpenAI para empresas?
Sí. Muchas empresas están optando por modelos de código abierto como Llama y Mistral, o utilizando modelos de competidores de Google (Gemini) y Anthropic (Claude). Estas alternativas ofrecen más control, privacidad y, a menudo, una mejor rentabilidad.