Миллиардная ошибка Anthropic

Anthropic незаметно попыталась поднять цены в 5 раз, вызвав бурю негодования среди разработчиков. Узнайте о масштабном просчете, который может подорвать позиции гиганта ИИ.

Stork.AI
Hero image for: Миллиардная ошибка Anthropic
💡

Кратко / Главное

Anthropic незаметно попыталась поднять цены в 5 раз, вызвав бурю негодования среди разработчиков. Узнайте о масштабном просчете, который может подорвать позиции гиганта ИИ.

Выстрел, прогремевший по всему миру ИИ

Anthropic инициировала спорное, необъявленное изменение в своих тарифных планах подписки на ИИ Claude, вызвав немедленное возмущение в сообществе разработчиков. Пользователи обнаружили, что компания незаметно удалила важнейшую функциональность Claude Code из своего плана Pro. Это резкое изменение вынудило разработчиков, зависящих от функции кодирования, к значительному финансовому удорожанию, требуя перехода на Max tier для доступа — минимум пятикратного повышения цены до $100 в месяц.

Отсутствие какого-либо официального сообщения от Anthropic относительно этого шага оказалось особенно возмутительным. Вместо этого изменение появилось как незаметная правка на странице ценообразования, создав немедленный информационный вакуум. Этот вакуум быстро заполнился возмущением и спекуляциями на видных форумах разработчиков, включая X, Reddit и Hacker News, где пользователи выражали разочарование по поводу предполагаемого пренебрежения компанией своим сообществом.

Отраслевые наблюдатели, такие как Мэттью Берман, подчеркнули глубокое влияние на доверие пользователей, заявив, что стало «все труднее и труднее доверять Anthropic свои деньги». Многие считали действия Anthropic неискренними, особенно для компании, которая культивировала «культовую культуру» вокруг своей гиперфокусировки на AGI и корпоративных решениях для кодирования. Удаление основной функции кодирования из широко используемого плана прямо противоречило ее предполагаемым сильным сторонам и обязательствам, особенно учитывая ее бизнес-модель «маховика», построенную на данных кодирования.

Этот инцидент, который, казалось, подорвал фундаментальный столп их стратегии, вызвал шок среди их пользовательской базы. Компания, известная тем, что избегала «побочных квестов», таких как модели изображений или видео, чтобы сосредоточиться исключительно на кодировании и корпоративных решениях, внезапно сделала свое основное предложение менее доступным. Это напрямую поставило под сомнение ценностное предложение для многих лояльных пользователей, которые чувствовали себя все более стесненными в квотах и функциях, которыми они когда-то пользовались.

В ответ на подавляющую негативную реакцию Anthropic в конечном итоге осуществила запутанный, частичный откат. Функциональность Claude Code была восстановлена для плана Pro, хотя она оставалась заметно отсутствующей в бесплатном тарифе (Free tier). Несмотря на эту поспешную уступку, репутационный ущерб сохранился. Инцидент заставил многих усомниться в прозрачности и долгосрочной стратегии Anthropic, нанеся значительный удар по ее положению в конкурентной среде ИИ и оставив затяжное чувство недоверия.

Расшифровка запутанных сигналов Anthropic

Иллюстрация: Расшифровка запутанных сигналов Anthropic
Иллюстрация: Расшифровка запутанных сигналов Anthropic

Недавние действия Anthropic выявляют хаотичную и непрозрачную коммуникационную стратегию, создавая значительный диссонанс между ее публичными предложениями и пользовательским опытом. Необъявленное удаление Claude Code из плана Pro, изначально представлявшее собой скрытую правку на страницах ценообразования, вынудило разработчиков к обязательному 5-кратному повышению цены до Max tier, требуя минимум $100 в месяц за ранее доступные функции. Этот внезапный сдвиг, лишенный какого-либо официального сообщения, застал врасплох значительную часть их базы разработчиков.

Конфликтующие сигналы быстро нарастали по мере реакции сообщества. После широкого возмущения пользователей Anthropic молча восстановила Claude Code для плана Pro, однако он оставался недоступным на Free tier. Эта реактивная корректировка, вновь реализованная без официального подтверждения или объяснения, оставила след путаницы. Аналитик ИИ Мэттью Берман резко раскритиковал коммуникацию Anthropic как «по меньшей мере запутанную, возможно, неискреннюю», подчеркнув неспособность компании прозрачно взаимодействовать со своим сообществом.

Такие непоследовательные и необъявленные изменения в политике глубоко подрывают доверие пользователей, заставляя разработчиков сомневаться в стабильности, прозрачности и долгосрочной поддержке Anthropic. Берман выразил растущее мнение: «становится все труднее и труднее доверять Anthropic свои деньги», добавив, что компания «с каждым днем усложняет получение максимальной отдачи от квоты, за которую я плачу». Эта среда непредсказуемости затрудняет разработчикам интеграцию мощных моделей Anthropic, таких как Opus 4.6 и Opus 4.7, в их критически важные проекты.

В быстро развивающейся экосистеме разработчиков доверие функционирует как бесценная валюта. Четкие дорожные карты, последовательная ценовая политика и проактивное общение формируют прочную лояльность разработчиков и стимулируют инвестиции в платформу. Модель Anthropic с необъявленным удалением функций и тихими откатами активно растрачивает это важнейшее доверие. Разработчики теперь сталкиваются с нестабильной основой, где основные функциональные возможности могут исчезать или появляться без предупреждения, что подталкивает их к поиску более надежных и прозрачных альтернатив. Это напрямую подрывает бизнес-модель маховика, которую Anthropic построила вокруг своих моделей кодирования, и которая сильно зависит от постоянного вовлечения разработчиков и их вклада в данные.

«Прекрасный маховик» начинает шататься

Мэтью Берман, известный аналитик в области ИИ, определил «прекрасный маховик» как основу бизнес-стратегии Anthropic, разработанной для создания уникального конкурентного преимущества. Этот самоподдерживающийся цикл начался с их высокопроизводительной Code Model, прямого результата целенаправленного внимания Anthropic к AGI и корпоративным приложениям. Они стратегически продавали эту модель предприятиям для критически важных случаев использования ИИ в кодировании, что генерировало не только значительный доход, но, что крайне важно, поток бесценных проприетарных данных для кодирования.

Эти постоянно приобретаемые данные затем напрямую возвращались в процесс обучения их последующих моделей. Каждая итерация использовала эту уникальную, реальную информацию о кодировании для создания явно превосходящей модели следующего поколения, совершенствуя ее возможности специально для задач кодирования. Берман назвал это непрерывное, основанное на данных улучшение «самым безумным маховиком, который я когда-либо видел», подчеркивая его способность ускорять разработку и укреплять позиции Anthropic в прибыльных корпоративных секторах и секторах кодирования, избегая потребительских «побочных квестов».

Теоретическая гениальность этой самооптимизирующейся модели, однако, полностью зависела от одного критически важного, не подлежащего обсуждению компонента: бесконечных вычислений. Чтобы одновременно обслуживать быстро растущую базу пользователей с помощью их Code Model, поглощать и обрабатывать огромные объемы проприетарных обучающих данных и непрерывно обучать все более крупные и сложные модели, Anthropic требовалось по существу неограниченное количество вычислительных ресурсов. Этот ненасытный спрос на вычисления, жизненно важный как для вывода моделей, так и для итеративного обучения, стал единственной точкой отказа, теперь заставляя некогда прекрасный маховик опасно шататься.

Ставка Дарио на триллион долларов, которая пошла не так

Выступая в подкасте Dwarkesh, генеральный директор Anthropic Дарио Амодей сформулировал крайне осторожную стратегию в отношении инвестиций в вычисления. Он столкнулся с экспоненциальным ростом спроса на ИИ, прогнозируя потенциальный годовой доход, достигающий триллиона долларов к концу 2027 года. Этот сценарий потребует астрономических 5 триллионов долларов в вычислительных мощностях для удовлетворения спроса.

Амодей выступал против таких агрессивных капитальных затрат, прямо опасаясь корпоративного банкротства. Он описал шаткое равновесие: если рост немного замедлится, даже до 800 миллиардов вместо триллиона, компания столкнется с непреодолимым долгом. Эта несклонность к риску привела его к намеренному ограничению закупок вычислительных мощностей, принимая неизбежность поддержки спроса в «сотни миллиардов, а не триллионы».

Однако этот консервативный подход оказался огромным просчетом. Амодей фундаментально недооценил взрывной, устойчивый спрос на ИИ, особенно на такие сложные модели, как Claude Code. Его решение отдать приоритет финансовой стабильности над лидерством на рынке привело к тому, что Anthropic критически не хватает ресурсов, необходимых для масштабирования.

Конкуренты придерживались совершенно иной философии. OpenAI, поддерживаемая колоссальными инвестициями Microsoft, агрессивно вкладывала капитал в инфраструктуру, обеспечивая достаточные вычислительные мощности для своей быстрорастущей пользовательской базы и обучения моделей. Эта смелая стратегия позволила им захватить значительную долю рынка и сохранить конкурентное преимущество.

Модель «маховика» Anthropic, основанная на непрерывном цикле улучшения моделей кода, корпоративных продаж и сбора данных, теперь шатко колеблется. Нехватка вычислительных мощностей не позволяет им эффективно обслуживать существующие модели, не говоря уже об обучении ИИ следующего поколения. Эта преднамеренная осторожность серьезно подорвала способность Anthropic извлекать выгоду из того самого рынка, который она помогла создать.

Кризис вычислительных мощностей наступил, и он ужасен.

Иллюстрация: Кризис вычислительных мощностей наступил, и он ужасен.
Иллюстрация: Кризис вычислительных мощностей наступил, и он ужасен.

Ключевой «просчет» Дарио Амодея в отношении инвестиций в вычислительные мощности теперь проявляется как ощутимый кризис для пользователей Anthropic. Решение отказаться от агрессивных расходов на CapEx, подробно описанное в его выступлении на подкасте Dwarkesh, напрямую влияет на способность компании удовлетворять спрос. Этот консервативный подход, призванный предотвратить риск банкротства, вместо этого ставит под угрозу текущее предоставление услуг и будущий рост.

Свидетельства этой нехватки вычислительных мощностей ясны и агрессивны. Пользователи сообщают о значительном ограничении квот, что делает все более трудным использование приобретенных ими токенов и услуг. Это прямо противоречит ценностному предложению платных уровней, поскольку клиенты обнаруживают, что их доступ ограничен, несмотря на абонентскую плату. Доступность функций, таких как скрытое удаление и последующий частичный откат Claude Code из Pro plan, еще больше сигнализирует о напряжении ресурсов.

Эти ограничения затрудняют для платящих клиентов использование тех самых услуг, которые они финансируют. Мэттью Берман отмечает, что «с каждым днем становится все труднее максимально использовать квоту, за которую я плачу», подчеркивая прямое подрыв доверия и воспринимаемой ценности. Резкие изменения в доступе и ценообразовании, такие как первоначальный 5-кратный скачок цен до Max tier для Claude Code, подчеркивают нестабильность.

Эти проблемы — не просто ошибки или временные сбои; они представляют собой симптомы фундаментальной проблемы инфраструктуры. Неспособность Anthropic адекватно обеспечить вычислительные мощности угрожает основе ее бизнес-модели «прекрасного маховика», которая опирается на постоянную, надежную обратную связь из моделей кода, корпоративных продаж, данных и улучшенных моделей. Без достаточных вычислительных мощностей «маховик» шатается, подрывая конкурентное преимущество компании и долгосрочную жизнеспособность.

OpenClaw: Агент, который сломал хребет верблюду.

Появление сложных агентских фреймворков, таких как OpenClaw, быстро изменило то, как разработчики взаимодействовали с большими языковыми моделями, расширяя границы автономного выполнения задач. Эти инструменты, разработанные для сложной оркестровки, подавляющим большинством отдавали предпочтение Claude Opus за его превосходные возможности рассуждения, большое контекстное окно и способность обрабатывать сложные многошаговые процессы. Энтузиасты и новаторы интегрировали Opus в качестве центрального интеллекта для своих развивающихся ИИ-агентов.

Эта динамичная экосистема вскоре столкнулась с резкой остановкой. Anthropic начала ограничивать и даже банить пользователей, запускающих эти агентские инструменты через свои стандартные подписки. Разработчики, которые вложили значительное время и ресурсы в создание на базе Claude Opus, внезапно обнаружили, что их доступ ограничен, часто без четких объяснений или предварительных предупреждений.

Усугубляя проблему, Условия обслуживания Anthropic относительно сторонних инструментов и использования ее Agent SDK оставались запутанными и подвергались частым, непрозрачным изменениям. Это отсутствие четких указаний оставляло опытных пользователей в постоянном состоянии неопределенности, не зная, соответствуют ли их инновационные приложения постоянно меняющимся политикам компании. Для получения дополнительной информации о стратегических решениях Anthropic можно обратиться к их официальным сообщениям News - Anthropic.

Этот шаг оказался глубоко отталкивающим для наиболее преданной и инновационной пользовательской базы Anthropic. Эти опытные пользователи были не просто потребителями; они фактически проводили стресс-тестирование моделей в масштабе, обнаруживали пограничные случаи и внедряли новые приложения, демонстрирующие расширенные возможности Claude Opus. Отталкивание их означало потерю критически важной обратной связи и мощного двигателя органических инноваций.

Ограничивая агентскую разработку, Anthropic фактически отстранила от работы то самое сообщество, которое доводило ее модели до предела и демонстрировало их практическую ценность за пределами базового чата. Это решение, по-видимому, вызванное неустраненными ограничениями вычислительных мощностей, породило глубокое недоверие и подтолкнуло важный сегмент ее ранних пользователей к конкурирующим платформам.

Пока Anthropic спотыкается, OpenAI наносит удар

Пока Anthropic боролась со своими самонанесенными ранами, OpenAI воспользовалась моментом, организовав мощное контр-повествование. Кризис вычислительных мощностей, вынудивший скрытое удаление Claude Code и последующее повышение цен, стал благом для главного конкурента Anthropic в области связей с общественностью. OpenAI ловко позиционировала себя как стабильную, удобную для разработчиков альтернативу, готовую принять недовольных пользователей.

Неспособность Anthropic обслуживать свою растущую пользовательскую базу, прямое следствие просчитанного риска с вычислительными мощностями Дарио Амодея, создала вакуум, который OpenAI с готовностью заполнила. Разработчики, столкнувшиеся с ограничениями квот и неопределенным доступом к премиум-функциям Claude, перенесли свои рабочие нагрузки. OpenAI поглотила этот избыточный спрос, превратив «просчет» Anthropic в стратегическое преимущество для роста собственной платформы.

Далее, укрепляя свои конкурентные позиции, OpenAI совершила стратегический ход: приобрела команду OpenClaw. Этот шаг был напрямую нацелен на значительный сегмент сообщества агентских фреймворков, которое подавляющим большинством отдавало предпочтение Claude Opus для оркестровки из-за его превосходных возможностей рассуждения. Интегрируя опыт OpenClaw, OpenAI не только получила таланты, но и захватила критически важное сообщество разработчиков, покидающих Anthropic.

Эта агрессивная реакция рынка подчеркнула готовность OpenAI извлечь выгоду из уязвимостей конкурентов. В то время как Anthropic боролась с внутренним распределением ресурсов и хаотичной коммуникацией, OpenAI представила единый фронт, демонстрируя уверенность и возможности. Этот сдвиг выявил неустойчивый характер гонки ИИ, где один стратегический просчет может принести значительные выгоды конкуренту.

Культ AGI: Размывается ли видение?

Иллюстрация: Культ AGI: Размывается ли видение?
Иллюстрация: Культ AGI: Размывается ли видение?

Anthropic построила свой фундамент на культовой культуре, исключительно сфокусированной на разработке безопасного, доброжелательного общего искусственного интеллекта (AGI). Эта непоколебимая приверженность AGI означала отказ от «побочных квестов», таких как модели изображений или видео, приоритет исследовательской идентичности с минимальным вниманием к более широкому потребительскому рынку. Их амбиции были грандиозны: будущее, формируемое продуманным, этичным ИИ.

Однако недавние действия выявляют резкое отклонение от этого возвышенного видения. Внезапное удаление Claude Code, последующий 5-кратный скачок цен для Pro-пользователей и хаотичная коммуникационная стратегия подчеркивают, что компания борется с интенсивным коммерческим давлением и острой нехваткой ресурсов. Эти шаги кажутся менее связанными с принципиальным развитием AGI и более — с немедленными финансовыми потребностями.

Это создает ощутимый культурный конфликт между замкнутой, ориентированной на исследования идентичностью Anthropic и суровыми реалиями конкурентного рынка просюмеров. Хотя их «прекрасный маховик» — от модели кодирования к корпоративным продажам, к данным, к лучшим моделям — был гениальным, его текущая нестабильность показывает глубокое расхождение с практическими потребностями и ожиданиями их пользовательской базы. Они «на самом деле не очень заботятся о потребительском рынке», и эта позиция теперь вызывает значительную негативную реакцию.

Анализ Мэтью Бермана подчеркивает, как просчет генерального директора Дарио Амодеи в отношении вычислительных ресурсов вынудил Anthropic принимать антипользовательские решения, такие как ограничение квот и препятствование агентным проектам, таким как OpenClaw. Эта неуклюжая бизнес-стратегия напрямую подрывает любые заявления о том, что они «более вдумчивы» или ставят безопасность на первое место по сравнению с конкурентами. Вместо этого она создает образ отчаяния, подрывая доверие и позволяя конкурентам, таким как OpenAI, извлекать выгоду из каждой ошибки.

Помимо негативной реакции: Можно ли восстановить доверие?

Anthropic сталкивается со значительным долгосрочным ущербом для своего бренда среди разработчиков и опытных пользователей. Скрытое удаление Claude Code из плана Pro, вынудившее 5-кратный скачок цен до уровня Max, серьезно подорвало доверие к стабильности их ценообразования и приверженности их основной технической аудитории. Мэтью Берман подчеркнул, как эти запутанные сигналы делают «все труднее и труднее доверять Anthropic свои деньги», особенно тем, кто создает критически важные агентные фреймворки, такие как OpenClaw. Это напрямую влияет на их модель «прекрасного маховика», где внедрение разработчиками и обратная связь по данным способствуют улучшению моделей.

Чтобы начать восстановление, Anthropic должна принять радикальную прозрачность. Это означает открытое решение проблемы кризиса вычислительных ресурсов и стратегического просчета, который генеральный директор Дарио Амодеи обсуждал в подкасте Dwarkesh относительно инвестиций в инфраструктуру. Им нужна четкая, публичная дорожная карта, подробно описывающая, как они планируют масштабировать вычислительные мощности для надежного удовлетворения спроса, а не ограничивать доступ или увеличивать расходы без предварительного уведомления. Эта откровенность в отношении их инфраструктурных проблем и развивающейся бизнес-стратегии имеет первостепенное значение для восстановления доверия.

Восстановление доверия абсолютно зависит от четкого, стабильного и предсказуемого ценообразования и условий обслуживания. Хаотичная коммуникация вокруг доступности Claude Code, включая его временный откат после возмущения пользователей, продемонстрировала фундаментальное отсутствие уважения к планированию и инвестициям пользователей. Anthropic должна взять на себя обязательство заблаговременно уведомлять о любых значительных изменениях, предлагая прозрачные обоснования и четко определенные пути перехода, чтобы предотвратить будущие сбои для пользователей, полагающихся на их модели для основных операций и разработки продуктов.

Другие технологические гиганты предлагают план восстановления после крупных PR-катастроф. Microsoft, например, восстановила доверие разработчиков к Azure после первоначальных трудностей, главным образом благодаря стабильной производительности, прозрачной коммуникации и устойчивой политике платформы. Anthropic может усвоить, что постоянное, ориентированное на пользователя выполнение, а не единственная сосредоточенность на AGI любой ценой, в конечном итоге способствует лояльности и долгосрочным партнерствам. Доверие зарабатывается последовательными действиями, а не только основополагающей миссией. Для получения дополнительной информации об их рыночных движениях читатели могут изучить Anthropic – TechCrunch.

Следующий ход в великой войне ИИ

Anthropic стоит перед ключевым решением: либо агрессивно обеспечить больше вычислительных мощностей и изменить курс в отношении предполагаемого отказа от опытных пользователей, либо удвоить усилия по работе с высокодоходными корпоративными клиентами. Учитывая задокументированную неготовность генерального директора Дарио Амодеи рисковать платежеспособностью компании ради спекулятивных инвестиций в вычислительные мощности, более вероятным путем кажется постоянное сосредоточение на индивидуальных корпоративных решениях. Эта стратегия будет отдавать приоритет долгосрочным, высокоценным контрактам над более широкой экосистемой разработчиков, потенциально ограничивая доступ к моделям высшего уровня, таким как Claude Opus, для общего использования. Недавний откат Claude Code к плану Pro, хотя и является небольшой уступкой, принципиально не меняет их реальность, ограниченную вычислительными мощностями.

Этот инцидент убедительно сигнализирует об окончании эры «дешевого» доступа к передовым базовым моделям во всей индустрии ИИ. Поскольку вычислительные мощности становятся новой нефтью, провайдеры неизбежно будут перекладывать эти растущие затраты на инфраструктуру на пользователей, сегментируя рынок с помощью премиальных уровней и ограничительных квот. Разработчики и исследователи, когда-то имевшие доступ к API и щедрому бесплатному использованию, теперь должны столкнуться с ландшафтом, где передовые возможности ИИ предлагаются по значительной, часто непомерной цене. Этот сдвиг может подавить инновации для небольших команд и индивидуальных участников.

Ненадежность и внезапные изменения политики со стороны поставщиков закрытого исходного кода, таких как Anthropic, одновременно ускоряют привлекательность и внедрение моделей с открытым исходным кодом. Разработчики все чаще переходят на платформы, построенные на моделях, таких как Llama или Mistral, стремясь к большему контролю, прозрачности и защите от капризных изменений цен или удаления функций. Эта растущая зависимость от альтернатив с открытым исходным кодом способствует созданию более устойчивой и децентрализованной экосистемы ИИ, обеспечивая важные меры защиты от привязки к поставщику и неожиданных сбоев.

Конкуренция в ландшафте ИИ будет только усиливаться, вынуждая как потребителей, так и разработчиков ориентироваться в сложном, быстро развивающемся рынке с повышенным вниманием. Компании теперь должны тщательно взвешивать производительность модели по отношению к стоимости, надежности и долгосрочной стабильности выбранных ими платформ. Сага Anthropic подчеркивает, что доверие, однажды подорванное непрозрачными решениями и хаотичной коммуникацией, становится главной валютой в этой высокорисковой технологической войне, глубоко формируя, кто возглавит следующую волну инноваций в ИИ и кто в конечном итоге получит выгоду.

Часто задаваемые вопросы

Почему Anthropic удалила Claude Code из своего плана Pro?

Anthropic заявила, что это было небольшое тестирование на новых пользователях из-за высокого потребления ресурсов, но это вызвало широкое недовольство среди разработчиков. Многие считают, что это был шаг, чтобы подтолкнуть пользователей к более дорогим тарифам на фоне нехватки вычислительных мощностей.

Что такое бизнес-модель «маховика» Anthropic?

Это стратегия, при которой их передовая модель кодирования привлекает корпоративных клиентов, что, в свою очередь, обеспечивает доход и ценные данные для обучения еще более совершенных будущих моделей в самоподдерживающемся цикле.

Кто такой Дарио Амодеи и в чем заключался его предполагаемый «просчет»?

Дарио Амодеи — генеральный директор Anthropic. Предполагаемый просчет заключался в его решении не инвестировать активно в вычислительную инфраструктуру, недооценив будущий спрос, что, как сообщается, привело к их текущим проблемам с мощностями.

Как OpenAI извлекает выгоду из проблем Anthropic?

OpenAI, как сообщается, извлекает выгоду из PR-проблем Anthropic и неспособности удовлетворить спрос, позиционируя себя как более надежную и удобную для разработчиков альтернативу, тем самым привлекая разочарованных пользователей Anthropic.

Часто задаваемые вопросы

Культ AGI: Размывается ли видение?
See article for details.
Помимо негативной реакции: Можно ли восстановить доверие?
Anthropic сталкивается со значительным долгосрочным ущербом для своего бренда среди разработчиков и опытных пользователей. Скрытое удаление Claude Code из плана Pro, вынудившее 5-кратный скачок цен до уровня Max, серьезно подорвало доверие к стабильности их ценообразования и приверженности их основной технической аудитории. Мэтью Берман подчеркнул, как эти запутанные сигналы делают «все труднее и труднее доверять Anthropic свои деньги», особенно тем, кто создает критически важные агентные фреймворки, такие как OpenClaw. Это напрямую влияет на их модель «прекрасного маховика», где внедрение разработчиками и обратная связь по данным способствуют улучшению моделей.
Почему Anthropic удалила Claude Code из своего плана Pro?
Anthropic заявила, что это было небольшое тестирование на новых пользователях из-за высокого потребления ресурсов, но это вызвало широкое недовольство среди разработчиков. Многие считают, что это был шаг, чтобы подтолкнуть пользователей к более дорогим тарифам на фоне нехватки вычислительных мощностей.
Что такое бизнес-модель «маховика» Anthropic?
Это стратегия, при которой их передовая модель кодирования привлекает корпоративных клиентов, что, в свою очередь, обеспечивает доход и ценные данные для обучения еще более совершенных будущих моделей в самоподдерживающемся цикле.
Кто такой Дарио Амодеи и в чем заключался его предполагаемый «просчет»?
Дарио Амодеи — генеральный директор Anthropic. Предполагаемый просчет заключался в его решении не инвестировать активно в вычислительную инфраструктуру, недооценив будущий спрос, что, как сообщается, привело к их текущим проблемам с мощностями.
Как OpenAI извлекает выгоду из проблем Anthropic?
OpenAI, как сообщается, извлекает выгоду из PR-проблем Anthropic и неспособности удовлетворить спрос, позиционируя себя как более надежную и удобную для разработчиков альтернативу, тем самым привлекая разочарованных пользователей Anthropic.
🚀Узнать больше

Будьте в курсе трендов ИИ

Откройте лучшие инструменты ИИ, агенты и MCP-серверы от Stork.AI.

Все статьи