El error de mil millones de dólares de Anthropic

Anthropic intentó discretamente aumentar los precios 5 veces, desatando una tormenta entre los desarrolladores. Descubre el enorme error de cálculo que podría desbaratar al gigante de la IA.

Hero image for: El error de mil millones de dólares de Anthropic
💡

Resumen / Puntos clave

Anthropic intentó discretamente aumentar los precios 5 veces, desatando una tormenta entre los desarrolladores. Descubre el enorme error de cálculo que podría desbaratar al gigante de la IA.

El disparo que se escuchó en todo el mundo de la IA

Anthropic inició un cambio controvertido y no anunciado en sus niveles de suscripción de Claude AI, lo que provocó una indignación inmediata en toda la comunidad de desarrolladores. Los usuarios descubrieron que la compañía había eliminado sigilosamente la funcionalidad crucial de Claude Code de su plan Pro. Esta alteración abrupta obligó a los desarrolladores que dependían de la función de codificación a una escalada financiera significativa, exigiendo una actualización al Max tier para acceder, un aumento de precio mínimo de cinco veces a $100 por mes.

La ausencia de cualquier comunicación oficial de Anthropic con respecto a este movimiento resultó particularmente irritante. En cambio, el cambio apareció como una edición silenciosa en la página de precios, creando un vacío de información inmediato. Este vacío se llenó rápidamente de indignación y especulaciones en foros de desarrolladores prominentes, incluidos X, Reddit y Hacker News, donde los usuarios expresaron su frustración por el aparente desprecio de la compañía hacia su comunidad.

Observadores de la industria, como Matthew Berman, destacaron el profundo impacto en la confianza del usuario, afirmando que se volvió "cada vez más difícil confiar en Anthropic con mi dinero". Muchos sintieron que las acciones de Anthropic eran poco sinceras, especialmente para una empresa que había cultivado una "cultura de culto" en torno a su hiperenfoque en AGI y soluciones de codificación empresarial. La eliminación de una característica de codificación central de un plan ampliamente utilizado contradecía directamente sus fortalezas y compromiso percibidos, particularmente dado su modelo de negocio de "volante" (flywheel) construido sobre datos de codificación.

Este incidente, que pareció socavar un pilar fundamental de su estrategia, envió ondas de choque a través de su base de usuarios. La compañía, conocida por evitar "misiones secundarias" (side quests) como modelos de imagen o video para centrarse directamente en la codificación y la empresa, de repente hizo que su oferta principal fuera menos accesible. Desafió directamente la propuesta de valor para muchos usuarios leales, quienes se sintieron cada vez más presionados por la cuota y las características que antes disfrutaban.

En respuesta a la abrumadora reacción negativa, Anthropic finalmente implementó una reversión parcial y confusa. La funcionalidad de Claude Code fue restablecida para el plan Pro, aunque permaneció notablemente ausente del nivel Gratuito (Free tier). A pesar de esta apresurada concesión, el daño a la reputación perduró. El incidente dejó a muchos cuestionando la transparencia y la estrategia a largo plazo de Anthropic, marcando un golpe significativo a su posición dentro del competitivo panorama de la IA y dejando una persistente sensación de desconfianza.

Decodificando las señales confusas de Anthropic

Ilustración: Decodificando las señales confusas de Anthropic
Ilustración: Decodificando las señales confusas de Anthropic

Las acciones recientes de Anthropic revelan una estrategia de comunicación caótica y opaca, creando una disonancia significativa entre sus ofertas públicas y la experiencia del usuario. La eliminación no anunciada de Claude Code del plan Pro, inicialmente una edición sigilosa en las páginas de precios, obligó a los desarrolladores a un aumento de precio obligatorio de 5 veces al Max tier, exigiendo un mínimo de $100/mes por características previamente accesibles. Este cambio repentino, desprovisto de cualquier comunicación oficial, tomó por sorpresa a una parte significativa de su base de desarrolladores.

Las señales contradictorias escalaron rápidamente a medida que la comunidad reaccionaba. Tras la protesta generalizada de los usuarios, Anthropic restableció silenciosamente Claude Code al plan Pro, pero permaneció no disponible en el nivel Gratuito (Free tier). Este ajuste reactivo, nuevamente implementado sin reconocimiento o explicación formal, dejó un rastro de confusión. El analista de IA Matthew Berman criticó duramente la comunicación de Anthropic como "confusa por decir lo menos, posiblemente poco sincera", subrayando el fracaso de la compañía en interactuar de manera transparente con su comunidad.

Tales cambios de política inconsistentes y no comunicados erosionan profundamente la confianza del usuario, lo que lleva a los desarrolladores a cuestionar la estabilidad, transparencia y soporte a largo plazo de Anthropic. Berman articuló un sentimiento creciente: "cada vez es más difícil confiar en Anthropic con mi dinero", añadiendo que la empresa está "haciendo cada día más difícil aprovechar al máximo la cuota por la que estoy pagando". Este entorno de imprevisibilidad dificulta a los desarrolladores integrar los potentes modelos de Anthropic, como Opus 4.6 y Opus 4.7, en sus proyectos críticos.

En el ecosistema de desarrolladores en rápida evolución, la confianza funciona como una moneda invaluable. Hojas de ruta claras, precios consistentes y comunicación proactiva construyen una sólida lealtad de los desarrolladores y fomentan la inversión en la plataforma. El patrón de Anthropic de eliminación de funciones sin previo aviso y reversiones silenciosas malgasta activamente esta confianza esencial. Los desarrolladores ahora se enfrentan a una base inestable donde las funcionalidades principales pueden desaparecer o reaparecer sin previo aviso, lo que los empuja a buscar alternativas más fiables y transparentes. Esto socava directamente el modelo de negocio de flywheel que Anthropic construyó alrededor de sus modelos de codificación, que depende en gran medida del compromiso sostenido de los desarrolladores y las contribuciones de datos.

El 'Beautiful Flywheel' Comienza a Tambalearse

Matthew Berman, un destacado analista de IA, identificó un "beautiful flywheel" como el núcleo de la estrategia de negocio de Anthropic, diseñada para forjar una ventaja competitiva única. Este ciclo de auto-refuerzo comenzó con su altamente capaz Code Model, un resultado directo del enfoque láser de Anthropic en AGI y aplicaciones empresariales. Vendieron estratégicamente este modelo a empresas para casos de uso críticos de codificación de IA, lo que generó no solo ingresos sustanciales sino, crucialmente, un torrente de datos de codificación propietarios invaluables.

Estos datos continuamente adquiridos luego se retroalimentaron directamente para entrenar sus modelos subsiguientes. Cada iteración aprovechó esta información de codificación única y del mundo real para construir una next generation of model demostrablemente superior, refinando sus capacidades específicamente para tareas de codificación. Berman elogió esta mejora continua y basada en datos como "el flywheel más increíble que he visto", enfatizando su poder para acelerar el desarrollo y solidificar la posición de Anthropic dentro de los lucrativos sectores empresarial y de codificación, evitando las "side quests" de consumo.

La brillantez teórica de este modelo auto-optimizador, sin embargo, dependía enteramente de un componente crítico e innegociable: infinite compute. Para servir simultáneamente a una base de usuarios en rápida expansión con su Code Model, ingerir y procesar vastas cantidades de datos de entrenamiento propietarios y entrenar continuamente modelos cada vez más grandes y sofisticados, Anthropic requería un suministro esencialmente ilimitado de recursos computacionales. Esta demanda insaciable de compute, vital tanto para la inferencia del modelo como para el entrenamiento iterativo, se convirtió en el único punto de falla, causando ahora que el una vez hermoso flywheel se tambalee precariamente.

La Apuesta de un Billón de Dólares de Dario que Salió Mal

Apareciendo en el podcast Dwarkesh, el CEO de Anthropic, Dario Amodei, articuló una estrategia profundamente cautelosa con respecto a la inversión en compute. Lidió con el crecimiento exponencial de la demanda de IA, proyectando ingresos anualizados potenciales que alcanzarían un billón de dólares para finales de 2027. Este escenario requeriría una capacidad de compute astronómica de $5 billones para satisfacer la demanda.

Amodei argumentó en contra de un gasto de capital tan agresivo, temiendo explícitamente la bancarrota corporativa. Describió un equilibrio precario: si el crecimiento flaqueaba ligeramente, incluso a 800 mil millones en lugar de un billón, la empresa se enfrentaría a una deuda insuperable. Esta postura aversa al riesgo lo llevó a limitar intencionalmente las compras de compute, aceptando la inevitabilidad de soportar "cientos de miles de millones, no billones" en demanda.

Este enfoque conservador, sin embargo, resultó ser un error de cálculo masivo. Amodei subestimó fundamentalmente la demanda explosiva y sostenida de AI, particularmente para modelos sofisticados como Claude Code. Su decisión de priorizar la estabilidad financiera sobre el liderazgo del mercado ha dejado a Anthropic críticamente escaso de los recursos necesarios para escalar.

Los competidores adoptaron una filosofía marcadamente diferente. OpenAI, respaldado por las colosales inversiones de Microsoft, invirtió agresivamente capital en infraestructura, asegurando un amplio compute para su base de usuarios en rápida expansión y el entrenamiento de modelos. Esta audaz estrategia les permitió capturar una cuota de mercado significativa y mantener una ventaja competitiva.

El modelo de volante de inercia de Anthropic, basado en un ciclo continuo de mejora de modelos de código, ventas empresariales y adquisición de datos, ahora se tambalea precariamente. La escasez de compute les impide servir eficazmente a los modelos existentes, y mucho menos entrenar AI de próxima generación. Esta cautela deliberada ha obstaculizado gravemente la capacidad de Anthropic para capitalizar el mismo mercado que ayudó a crear.

La crisis de Compute está aquí, y es fea.

Ilustración: La crisis de Compute está aquí, y es fea.
Ilustración: La crisis de Compute está aquí, y es fea.

El "error de cálculo" fundamental de Dario Amodei con respecto a la inversión en compute ahora se manifiesta como una crisis tangible para los usuarios de Anthropic. La decisión de renunciar a un gasto agresivo de CapEx, detallada en su aparición en el podcast de Dwarkesh, impacta directamente la capacidad de la empresa para satisfacer la demanda. Este enfoque conservador, destinado a evitar el riesgo de bancarrota, en cambio, pone en peligro la prestación de servicios actuales y el crecimiento futuro.

La evidencia de esta escasez de compute es clara y agresiva. Los usuarios informan de una significativa limitación de cuota, lo que hace cada vez más difícil utilizar los tokens y servicios que han comprado. Esto contradice directamente la propuesta de valor de los niveles de pago, ya que los clientes encuentran su acceso restringido a pesar de las tarifas de suscripción. La disponibilidad de funciones, como la eliminación sigilosa y el posterior retroceso parcial de Claude Code del plan Pro, señala aún más la escasez de recursos.

Estas limitaciones hacen que sea un desafío para los clientes de pago aprovechar los mismos servicios que están financiando. Matthew Berman señala que es "más difícil cada día sacar el máximo provecho de la cuota por la que estoy pagando", destacando una erosión directa de la confianza y el valor percibido. Los cambios abruptos en el acceso y los precios, como el salto inicial de precio de 5x al nivel Max para Claude Code, subrayan la inestabilidad.

Estos problemas no son meros errores o fallos temporales; representan síntomas de un problema fundamental de infraestructura. La incapacidad de Anthropic para provisionar adecuadamente compute amenaza el núcleo de su "hermoso volante de inercia" modelo de negocio, que se basa en un ciclo de retroalimentación constante y robusto de modelos de código, ventas empresariales, datos y modelos mejorados. Sin suficiente compute, el volante de inercia se tambalea, socavando la ventaja competitiva y la viabilidad a largo plazo de la empresa.

OpenClaw: El agente que rompió la espalda del camello.

La aparición de sofisticados marcos agénticos como OpenClaw transformó rápidamente la forma en que los desarrolladores interactuaban con los grandes modelos de lenguaje, ampliando los límites de la ejecución autónoma de tareas. Estas herramientas, diseñadas para una orquestación compleja, favorecieron abrumadoramente a Claude Opus por sus capacidades de razonamiento superiores, su gran ventana de contexto y su habilidad para manejar procesos intrincados de múltiples pasos. Entusiastas e innovadores integraron Opus como la inteligencia central para sus florecientes agentes de IA.

Este vibrante ecosistema pronto se enfrentó a una interrupción abrupta. Anthropic comenzó a restringir e incluso a prohibir a los usuarios que ejecutaban estas herramientas agénticas a través de sus suscripciones estándar. Los desarrolladores, que habían invertido una cantidad significativa de tiempo y recursos en construir sobre Claude Opus, de repente vieron su acceso restringido, a menudo sin explicaciones claras ni advertencias previas.

Para agravar el problema, los Términos de Servicio de Anthropic con respecto a los arneses de terceros y el uso de su Agent SDK siguieron siendo confusos y sujetos a cambios frecuentes y opacos. Esta falta de directrices claras dejó a los usuarios avanzados en un estado perpetuo de incertidumbre, sin saber si sus aplicaciones innovadoras cumplían con las políticas cambiantes de la empresa. Para un mayor contexto sobre las decisiones estratégicas de Anthropic, se puede consultar sus comunicaciones oficiales Noticias - Anthropic.

Esta medida resultó profundamente alienante para la base de usuarios más dedicada e innovadora de Anthropic. Estos usuarios avanzados no eran meros consumidores; estaban probando eficazmente los modelos a escala, descubriendo casos extremos y siendo pioneros en nuevas aplicaciones que mostraban las capacidades avanzadas de Claude Opus. Alejarlos significaba perder un ciclo de retroalimentación crítico y un potente motor de innovación orgánica.

Al frenar el desarrollo agéntico, Anthropic marginó eficazmente a la misma comunidad que estaba llevando sus modelos al límite y demostrando su valor práctico más allá del chat básico. Esta decisión, aparentemente impulsada por limitaciones de cómputo no abordadas, fomentó una profunda desconfianza y empujó a un segmento crucial de sus primeros adoptantes hacia plataformas competidoras.

Mientras Anthropic tropieza, OpenAI ataca

Mientras Anthropic lidiaba con sus heridas autoinfligidas, OpenAI aprovechó el momento, orquestando una poderosa contranarrativa. La crisis de cómputo, que forzó la eliminación sigilosa de Claude Code y las subsiguientes subidas de precios, se convirtió en una bendición para las relaciones públicas del principal rival de Anthropic. OpenAI se posicionó hábilmente como la alternativa estable y amigable para los desarrolladores, lista para dar la bienvenida a los usuarios descontentos.

La incapacidad de Anthropic para atender a su creciente base de usuarios, una consecuencia directa de la calculada apuesta de cómputo de Dario Amodei, creó un vacío que OpenAI llenó con entusiasmo. Los desarrolladores, enfrentados a límites de cuota y acceso incierto a las funciones premium de Claude, migraron sus cargas de trabajo. OpenAI absorbió esta demanda excesiva, transformando el "error de cálculo" de Anthropic en una ventaja estratégica para el crecimiento de su propia plataforma.

Para solidificar aún más su postura competitiva, OpenAI ejecutó una jugada maestra estratégica: la adquisición del equipo de OpenClaw. Esta medida se dirigió directamente a un segmento significativo de la comunidad de marcos agénticos, que había favorecido abrumadoramente a Claude Opus para la orquestación debido a sus capacidades de razonamiento superiores. Al integrar la experiencia de OpenClaw, OpenAI no solo ganó talento, sino que también capturó una comunidad de desarrolladores crítica que abandonaba Anthropic.

Esta agresiva respuesta del mercado subrayó la disposición de OpenAI para capitalizar las vulnerabilidades de sus rivales. Mientras Anthropic luchaba con la asignación interna de recursos y una comunicación caótica, OpenAI presentó un frente unificado, proyectando confianza y capacidad. El cambio destacó la naturaleza precaria de la carrera de la IA, donde un solo paso estratégico en falso puede generar ganancias significativas para un competidor.

Un Culto a la AGI: ¿Se Está Desdibujando la Visión?

Ilustración: Un Culto a la AGI: ¿Se Está Desdibujando la Visión?
Ilustración: Un Culto a la AGI: ¿Se Está Desdibujando la Visión?

Anthropic construyó sus cimientos sobre una cultura de culto, singularmente hiperenfocada en desarrollar una Inteligencia Artificial General segura y benevolente. Este compromiso inquebrantable con la AGI significó evitar las "misiones secundarias" como los modelos de imagen o video, priorizando una identidad centrada en la investigación con una atención mínima al mercado de consumo más amplio. Su ambición era grande: un futuro moldeado por una IA reflexiva y ética.

Sin embargo, acciones recientes revelan una discordante divergencia de esta elevada visión. La eliminación abrupta de Claude Code, el posterior aumento de precio de 5x para los usuarios Pro y la caótica estrategia de comunicación subrayan una empresa que lucha con intensas presiones comerciales y una grave escasez de recursos. Estos movimientos parecen menos sobre el desarrollo de AGI basado en principios y más sobre exigencias financieras inmediatas.

Esto crea un choque cultural palpable entre la identidad insular y orientada a la investigación de Anthropic y las duras realidades de un mercado prosumer competitivo. Si bien su "hermoso volante" —modelo de codificación a ventas empresariales a datos a mejores modelos— era ingenioso, su tambaleo actual muestra una profunda desconexión de las necesidades y expectativas prácticas de su base de usuarios. "Realmente ni siquiera les importa mucho el mercado de consumo", una postura que ahora está generando una reacción significativa.

El análisis de Matthew Berman destaca cómo el error de cálculo de cómputo del CEO Dario Amodei ha obligado a Anthropic a tomar decisiones anti-usuario, como limitar cuotas y obstaculizar proyectos agénticos como OpenClaw. Esta torpe estrategia comercial socava directamente cualquier afirmación de ser "más reflexivo" o priorizar la seguridad que sus competidores. En cambio, proyecta una imagen de desesperación, erosionando la confianza y permitiendo que rivales como OpenAI capitalicen cada paso en falso.

Más Allá de la Reacción: ¿Se Puede Reconstruir la Confianza?

Anthropic enfrenta un daño significativo a largo plazo a su marca entre desarrolladores y usuarios avanzados. La eliminación sigilosa de Claude Code del plan Pro, forzando un aumento de precio de 5x al nivel Max, erosionó severamente la confianza en su estabilidad de precios y su compromiso con su audiencia técnica principal. Matthew Berman destacó cómo estas señales confusas hacen que sea "cada vez más difícil confiar en Anthropic con mi dinero", especialmente para aquellos que construyen marcos agénticos críticos como OpenClaw. Esto impacta directamente su modelo de "hermoso volante", donde la adopción por parte de los desarrolladores y la retroalimentación de datos impulsan las mejoras del modelo.

Para comenzar la recuperación, Anthropic debe adoptar una transparencia radical. Esto significa abordar abiertamente la crisis de cómputo subyacente y el error de cálculo estratégico que el CEO Dario Amodei discutió en el podcast Dwarkesh con respecto a la inversión en infraestructura. Necesitan una hoja de ruta clara y pública que detalle cómo planean escalar la capacidad de cómputo para satisfacer la demanda de manera confiable, en lugar de limitar el acceso o aumentar los costos sin previo aviso. Esta franqueza sobre sus desafíos de infraestructura y la evolución de su estrategia comercial es primordial para recuperar la credibilidad.

Reconstruir la confianza depende absolutamente de una política de precios predecible y de términos de servicio claros y estables. La comunicación caótica en torno a la disponibilidad de Claude Code, incluido su retroceso temporal tras la protesta de los usuarios, demostró una falta fundamental de respeto por la planificación y la inversión de los usuarios. Anthropic debe comprometerse a avisar con antelación de cualquier cambio significativo, ofreciendo justificaciones transparentes y rutas de transición bien definidas para evitar futuras interrupciones para los usuarios que dependen de sus modelos para operaciones centrales y desarrollo de productos.

Otros gigantes tecnológicos ofrecen un modelo para la recuperación de grandes desastres de relaciones públicas. Microsoft, por ejemplo, reconstruyó la confianza de los desarrolladores en Azure después de tropiezos iniciales, principalmente a través de un rendimiento constante, comunicación transparente y políticas de plataforma estables. Anthropic puede aprender que una ejecución sostenida y centrada en el usuario, en lugar de un enfoque singular en AGI a toda costa, fomenta en última instancia la lealtad y las asociaciones a largo plazo. La confianza se gana a través de acciones consistentes, no solo a través de una misión fundacional. Para obtener más información sobre sus movimientos en el mercado, los lectores pueden explorar Anthropic – TechCrunch.

El Siguiente Movimiento en la Gran Guerra de la IA

Anthropic se enfrenta a una decisión crucial: o asegurar agresivamente más capacidad de cómputo y revertir su percibido abandono de los usuarios avanzados, o redoblar la apuesta por los clientes empresariales de alto margen. Dada la renuencia documentada del CEO Dario Amodei a arriesgar la solvencia de la empresa en inversiones especulativas de cómputo, un enfoque sostenido en soluciones empresariales a medida parece el camino más probable. Esta estrategia priorizaría los contratos a largo plazo y de alto valor sobre el ecosistema de desarrolladores más amplio, limitando potencialmente el acceso a modelos de primer nivel como Claude Opus para uso general. El reciente retroceso de Claude Code al plan Pro, aunque una concesión menor, no altera fundamentalmente su realidad de cómputo limitado.

Este incidente señala fuertemente el fin de la era del acceso "barato" a modelos fundacionales de vanguardia en toda la industria de la IA. A medida que el cómputo se convierte en el nuevo petróleo, los proveedores inevitablemente trasladarán estos crecientes costos de infraestructura a los usuarios, segmentando el mercado con niveles premium y cuotas restrictivas. Desarrolladores e investigadores, una vez empoderados por APIs accesibles y un uso gratuito generoso, ahora deben lidiar con un panorama donde las capacidades avanzadas de IA tienen un precio significativo, a menudo prohibitivo. Este cambio podría sofocar la innovación para equipos más pequeños y colaboradores individuales.

La falta de fiabilidad y los cambios repentinos de política de proveedores de código cerrado como Anthropic están acelerando simultáneamente el atractivo y la adopción de modelos de código abierto. Los desarrolladores están migrando cada vez más a plataformas construidas alrededor de modelos como Llama o Mistral, buscando mayor control, transparencia e inmunidad frente a cambios caprichosos de precios o eliminación de funciones. Esta creciente dependencia de alternativas de código abierto fomenta un ecosistema de IA más resiliente y descentralizado, proporcionando coberturas vitales contra el bloqueo de proveedores y las interrupciones inesperadas.

La competencia en el panorama de la IA solo se intensificará, obligando tanto a consumidores como a desarrolladores a navegar por un mercado complejo y en rápida evolución con un escrutinio elevado. Las empresas deben ahora sopesar meticulosamente el rendimiento del modelo frente al costo, la fiabilidad y la estabilidad a largo plazo de sus plataformas elegidas. La saga de Anthropic subraya que la confianza, una vez erosionada por decisiones opacas y comunicación caótica, se convierte en la moneda definitiva en esta guerra tecnológica de alto riesgo, dando forma profunda a quién lidera la próxima ola de innovación en IA y quién se beneficia en última instancia.

Preguntas Frecuentes

¿Por qué Anthropic eliminó Claude Code de su plan Pro?

Anthropic afirmó que era una pequeña prueba en nuevos usuarios debido al alto uso de recursos, pero provocó una reacción generalizada de los desarrolladores. Muchos creen que fue una medida para impulsar a los usuarios a planes más caros en medio de una escasez de capacidad de cómputo.

¿Cuál es el modelo de negocio de 'flywheel' de Anthropic?

Es una estrategia donde su modelo avanzado de codificación atrae a clientes empresariales, lo que a su vez proporciona ingresos y valiosos datos de codificación para entrenar modelos futuros aún mejores en un ciclo de auto-refuerzo.

¿Quién es Dario Amodei y cuál fue su supuesta 'mala estimación'?

Dario Amodei es el CEO de Anthropic. La supuesta mala estimación fue su decisión de no invertir fuertemente en infraestructura de cómputo, subestimando la demanda futura, lo que, según se informa, ha llevado a sus problemas actuales de capacidad.

¿Cómo se está beneficiando OpenAI de los problemas de Anthropic?

Según se informa, OpenAI está capitalizando los problemas de relaciones públicas de Anthropic y su incapacidad para satisfacer la demanda, posicionándose como una alternativa más confiable y amigable para los desarrolladores, capturando así a los usuarios desilusionados de Anthropic.

Preguntas frecuentes

Un Culto a la AGI: ¿Se Está Desdibujando la Visión?
See article for details.
Más Allá de la Reacción: ¿Se Puede Reconstruir la Confianza?
Anthropic enfrenta un daño significativo a largo plazo a su marca entre desarrolladores y usuarios avanzados. La eliminación sigilosa de Claude Code del plan Pro, forzando un aumento de precio de 5x al nivel Max, erosionó severamente la confianza en su estabilidad de precios y su compromiso con su audiencia técnica principal. Matthew Berman destacó cómo estas señales confusas hacen que sea "cada vez más difícil confiar en Anthropic con mi dinero", especialmente para aquellos que construyen marcos agénticos críticos como OpenClaw. Esto impacta directamente su modelo de "hermoso volante", donde la adopción por parte de los desarrolladores y la retroalimentación de datos impulsan las mejoras del modelo.
¿Por qué Anthropic eliminó Claude Code de su plan Pro?
Anthropic afirmó que era una pequeña prueba en nuevos usuarios debido al alto uso de recursos, pero provocó una reacción generalizada de los desarrolladores. Muchos creen que fue una medida para impulsar a los usuarios a planes más caros en medio de una escasez de capacidad de cómputo.
¿Cuál es el modelo de negocio de 'flywheel' de Anthropic?
Es una estrategia donde su modelo avanzado de codificación atrae a clientes empresariales, lo que a su vez proporciona ingresos y valiosos datos de codificación para entrenar modelos futuros aún mejores en un ciclo de auto-refuerzo.
¿Quién es Dario Amodei y cuál fue su supuesta 'mala estimación'?
Dario Amodei es el CEO de Anthropic. La supuesta mala estimación fue su decisión de no invertir fuertemente en infraestructura de cómputo, subestimando la demanda futura, lo que, según se informa, ha llevado a sus problemas actuales de capacidad.
¿Cómo se está beneficiando OpenAI de los problemas de Anthropic?
Según se informa, OpenAI está capitalizando los problemas de relaciones públicas de Anthropic y su incapacidad para satisfacer la demanda, posicionándose como una alternativa más confiable y amigable para los desarrolladores, capturando así a los usuarios desilusionados de Anthropic.
🚀Descubre más

Mantente a la vanguardia de la IA

Descubre las mejores herramientas de IA, agentes y servidores MCP seleccionados por Stork.AI.

Volver a todas las publicaciones