Кратко / Главное
Скриншот, облетевший весь мир
Сообщества разработчиков недавно обнаружили значительное изменение в предложении Claude Pro от Anthropic, но не через официальные каналы, а через общие скриншоты, распространяющиеся по X (ранее Twitter) и Reddit. Эти спонтанные публикации подробно описывали тихое удаление Claude Code, критически важной функции для многих пользователей, из популярного тарифного плана за $20/месяц. Это открытие вызвало немедленное замешательство и глубокое чувство предательства среди лояльных подписчиков Claude Pro.
Для многих разработчиков Claude Code представлял собой незаменимый инструмент, глубоко интегрированный в их повседневные рабочие процессы. Его внезапное исчезновение из доступного уровня Pro ощущалось как «выдергивание ковра из-под ног» в цифровом мире, что фундаментально изменило ценностное предложение выбранного ими ИИ-помощника. Пользователи привыкли полагаться на его возможности для эффективных сессий кодирования и рабочих процессов агентов.
Изменение сигнализировало о резком, ощутимом повышении цен. Claude Code, ранее доступный пользователям Pro за $20/месяц, теперь, по-видимому, стал эксклюзивно доступен на более дорогом уровне «Max», который, по слухам, стоит в пять-десять раз дороже. Это в одночасье превратило ключевую утилиту для разработки из доступного повседневного инструмента в предмет роскоши премиум-класса.
Разработчики выразили широкое разочарование, подчеркнув, как этот шаг нарушит их производительность и наложит неожиданные финансовые обременения. Многие чувствовали, что Anthropic фактически обесценила их существующие подписки без прозрачного общения, вынуждая к дорогостоящему обновлению для получения необходимой функциональности.
Позже Anthropic заявила, что это был всего лишь «небольшой тест», затронувший примерно 2% новых регистраций, но общедоступные страницы с ценами и документация отражали изменения, что вызвало повсеместный скептицизм. Компания CEO Dario Amodei Amodei сталкивается с растущими ограничениями вычислительной мощности, что приводит к ужесточению лимитов использования и стремлению к более ограничительным, дорогим тарифам.
Эта необъявленная корректировка, быстро отмененная после общественного резонанса, раскрыла скрытую стратегию Anthropic по управлению спросом и монетизации своих продвинутых функций. Хотя тарифный план Pro за $20/месяц, по словам Anthropic, не был предназначен для «многочасовых рабочих процессов агентов», инцидент выявил четкую траекторию к более высоким затратам для опытных пользователей Claude Pro.
Просто тест: Контроль ущерба Anthropic
Amol Avasare, руководитель отдела роста Anthropic, быстро задействовал официальный контроль ущерба, охарактеризовав удаление Claude Code из уровня Pro как всего лишь «небольшой тест для ~2% новых регистраций». Это объяснение, сделанное на фоне шквала жалоб пользователей на таких платформах, как X и Reddit, пыталось представить значительное изменение – принуждение пользователей к переходу на гораздо более дорогой уровень Max для получения этой функции – как ограниченный эксперимент.
Однако сообщество разработчиков немедленно встретило это утверждение с глубоким скептицизмом. Пользователи быстро обнаружили, что общедоступные страницы с ценами и официальная документация Anthropic были обновлены повсеместно, отражая изменения для всех посетителей, а не только для избранных 2% новых регистраций. Это вопиющее несоответствие прямо противоречило заявлению Avasare, подпитывая обвинения в скрытом повышении цен и глубоком отсутствии прозрачности.
Реакция была быстрой и жесткой. Столкнувшись с сильным общественным давлением, Anthropic капитулировала в течение 24 часов, вернув страницу с ценами и восстановив доступ к Claude Code для плана Claude Pro за $20 в месяц. Этот быстрый разворот подчеркнул огромную силу общественного мнения и активного сообщества разработчиков в быстро меняющемся, высококонкурентном пространстве ИИ. Компании не могут незаметно изменять основные предложения, особенно те, которые представляют собой увеличение цены в 5-10 раз для критически важной функции.
Этот инцидент представляет собой значительный сбой в коммуникации для Anthropic, серьезно подорвавший ее авторитет. Компания изначально удалила ключевую функцию без официального объявления, затем предложила объяснение, которое многие сочли неискренним. Эта последовательность событий еще больше подорвала доверие пользователей — критически важный и хрупкий актив в отрасли, где лояльность может быстро меняться между такими платформами, как ChatGPT от OpenAI и Claude от Anthropic. Такие ошибки рискуют оттолкнуть ключевых пользователей.
В основе разногласий лежали ограничения вычислительных мощностей Anthropic. Компания указала, что план Pro за $20 в месяц не был предназначен для «многочасовых рабочих процессов агентов или постоянных сессий кодирования» — задач, которые потребляют значительные ресурсы. Генеральный директор Дарио Амодей публично признал эти проблемы с вычислениями, которые ранее привели к ужесточению лимитов использования для всех уровней. Этот инцидент убедительно предполагает будущее, в котором популярные функции, такие как Claude Code, действительно могут стать дороже или быть ограничены.
Настоящий виновник: Вычислительные мощности — всему голова
Anthropic сталкивается с фундаментальным препятствием, лежащим в основе этих спорных решений: она «ограничена в вычислительных мощностях». Генеральный директор Дарио Амодей публично признал это критическое ограничение, которое определяет способность компании масштабировать свои мощные модели ИИ и предлагать неограниченный доступ пользователям. Этот дефицит напрямую лежит в основе недавних изменений в Claude Pro.
Вычислительные мощности представляют собой огромную вычислительную мощность, необходимую для обучения и запуска больших языковых моделей, таких как Claude. Это включает в себя обширные массивы специализированного оборудования, в основном GPUs, требующего значительных капиталовложений и постоянной энергии. Этот ресурс не только конечен, но и невероятно дорог, что делает его эффективное распределение стратегическим императивом для любого крупного игрока в области ИИ.
Действительно, видео Better Stack «Повышение цен на Claude, о котором они не объявили» напрямую связывает затруднительное положение Anthropic именно с этой проблемой. В видео утверждается, что Дарио Амодей «не купил достаточно вычислительных мощностей, когда у него была возможность, по сравнению с другими ИИ-компаниями, такими как OpenAI», что ставит Anthropic в шаткое, реактивное положение по отношению к ее хорошо обеспеченным ресурсами конкурентам. Это предполагаемое недоинвестирование теперь вынуждает идти на трудные компромиссы.
Чтобы справиться с этим присущим дефицитом, Anthropic уже приняла различные меры. Ранее компания ужесточила лимиты использования в часы пик для всех уровней, включая подписчиков Free, Pro и Max. Отчеты показали, что еще до недавнего инцидента около 7% пользователей Pro достигали своих лимитов гораздо быстрее, часто после всего нескольких запросов во время коротких сессий кодирования. Более подробную информацию об этих корректировках см. Anthropic confirms it's been 'adjusting' Claude usage limits - PCWorld.
Этот характер ограничений подчеркивает борьбу Anthropic с растущим спросом на вычислительно-интенсивные задачи. Компания заявила, что тарифный план Claude Pro за $20 в месяц никогда не предназначался для «многочасовых рабочих процессов агентов или постоянных сессий кодирования», что указывает на явное несоответствие между ожиданиями пользователей от расширенных функций, таких как Claude Code, и доступными серверными ресурсами. Тихое удаление Claude Code из Pro, функции, которая повлекла бы за собой увеличение цены в 5-10 раз при переходе на Max, отражает эту отчаянную попытку сохранить драгоценную вычислительную мощность.
Почему AI для кодирования «сжигает» деньги
ИИ для кодирования представляет собой принципиально иную задачу для больших языковых моделей (LLM), чем простые разговорные запросы. Генерация кода, отладка и поддержание контекста между несколькими файлами и итерациями являются вычислительно-интенсивными операциями. Эти задачи требуют значительно большей вычислительной мощности и памяти, чем ответ на быстрый вопрос или суммирование текста.
Рассмотрим разницу: базовый чат-запрос похож на обращение к словарю за определением одного слова. LLM быстро извлекает и форматирует краткий ответ. И наоборот, «постоянная сессия кодирования» или многоэтапный рабочий процесс агента сродни задаче для этого словаря написать целый роман с нуля, итеративно дорабатывая главы, проверяя грамматику и обеспечивая связность повествования в течение многих часов.
Этот экспоненциальный спрос на ресурсы напрямую подтверждает откровенное признание Anthropic: тарифный план Pro за $20 «не был разработан для выполнения многочасовых рабочих процессов агентов или постоянных сессий кодирования». Сообщается, что пользователи Pro достигали своих лимитов использования всего после нескольких запросов во время коротких сессий кодирования, что иллюстрирует немедленную нагрузку. Инфраструктура просто не может поддерживать такую непрерывную активность с высокой нагрузкой по этой цене.
Взрывной рост агентского ИИ еще больше усугубляет эту проблему, доводя инфраструктуру до предела во всей отрасли. Агентские модели не просто отвечают на запросы; они планируют, выполняют подзадачи, анализируют и самокорректируются в течение длительных периодов, потребляя огромное количество токенов и циклов GPU. Этот сдвиг парадигмы вынуждает все ИИ-компании, включая Anthropic, критически пересмотреть свои фундаментальные структуры ценообразования и планирование мощностей.
Признание генерального директора Дарио Амодея (Dario Amodei) того, что Anthropic «ограничена в вычислительных мощностях», подчеркивает основную проблему. Удовлетворение ненасытного спроса на передовые, управляемые агентами функции ИИ требует огромных, постоянных инвестиций в GPU и центры обработки данных. Эта реальность делает такие функции, как Claude Code, невероятно дорогими для массового предложения, особенно в рамках модели подписки с фиксированной ставкой.
Это не только проблема Anthropic
Недавние шаги Anthropic — не единичный инцидент; скорее, они отражают более глубокую, общеотраслевую проблему. Этот вычислительный кризис выходит далеко за рамки лабораторий Anthropic, представляя собой глобальное узкое место для всего сектора искусственного интеллекта. Ненасытный спрос на вычислительную мощность, особенно для продвинутых моделей и многоэтапных агентских рабочих процессов, теперь напрягает саму основу инноваций в области ИИ.
Крупные игроки по всей экосистеме сталкиваются с аналогичными ограничениями мощностей, что подчеркивает системный характер проблемы. OpenAI, например, часто корректирует лимиты скорости API и внедряет многоуровневый доступ для управления спросом на свои самые мощные модели, такие как GPT-4, особенно в часы пик. GitHub Copilot, важный инструмент для миллионов разработчиков, также сталкивался с колебаниями производительности и периодическими проблемами доступности, напрямую связанными с базовой вычислительной инфраструктурой, что расстраивает пользователей по всему миру.
Облегчение от этой нехватки остается отдаленной перспективой, а не краткосрочным решением. Отраслевые эксперты постоянно прогнозируют, что новые, специализированные инвестиции в инфраструктуру ИИ — от передовых заводов по производству чипов до гипермасштабных центров обработки данных — требуют значительных 12–24 месяцев для ввода в эксплуатацию. Этот увеличенный срок подчеркивает серьезную проблему быстрого масштабирования сложного, специализированного оборудования, такого как графические процессоры NVIDIA H100, и энергоемких объектов, необходимых для их питания.
Нынешнее затруднительное положение проистекает из беспрецедентного всплеска внедрения ИИ, который значительно опередил глобальную цепочку поставок. Этот шок спроса, частично вызванный громкими событиями, такими как беспорядки в руководстве OpenAI и последующая миграция разработчиков к альтернативам, таким как Anthropic, привел к немедленному, экспоненциальному увеличению вычислительных потребностей по всем направлениям, перегружая существующие мощности.
Следовательно, доступность передовых AI chips и критически важной мощности центров обработки данных просто не может угнаться за взрывным спросом. Каждый крупный разработчик ИИ, от признанных технологических гигантов до гибких стартапов, борется за ограниченные ресурсы, что приводит к росту затрат и вынуждает принимать трудные стратегические решения о том, какие функции приоритезировать и по какой цене. Узкое место в вычислениях — это не просто техническое препятствие; оно определяет текущий рубеж развертывания и доступности ИИ.
Многомиллиардная авантюра Дарио
Стратегия приобретения вычислительных мощностей Дарио Амодея Амодея опровергает общепринятую деловую мудрость. Он публично заявил, что для ИИ-компании на стадии Anthropic прибыльность сигнализирует о недостаточном инвестировании — философия, движущая неустанным стремлением фирмы к кластерам GPU. Эта агрессивная позиция лежит в основе многомиллиардного будущего компании, отдавая приоритет необработанной вычислительной мощности над немедленной прибылью.
Anthropic заключила внушительные альянсы, чтобы обеспечить свою вычислительную судьбу. Важные сделки включают стратегическое партнерство с AWS, значительное сотрудничество с Google, предоставляющее доступ к их пользовательским Tensor Processing Units (TPUs), и текущие взаимодействия с Microsoft Azure. Эти соглашения — не просто партнерства; они являются фундаментальными столбами для операционного существования Anthropic, обеспечивая постоянную поставку передового оборудования.
Масштаб этих обязательств ошеломляет, отражая беспрецедентную веру в будущие возможности ИИ. Anthropic обязалась потратить более $100 миллиардов на вычислительные ресурсы AWS в течение следующих четырех лет — сумма, которая затмевает многие национальные технологические бюджеты. Дополнительно укрепляя свои позиции, Amazon обязалась потенциально инвестировать до $25 миллиардов в Anthropic, подчеркивая высокую ставку на долгосрочное видение компании и ее конкурентное преимущество перед такими соперниками, как OpenAI.
Эти огромные расходы представляют собой дерзкую авантюру Дарио Амодея Амодея на будущее искусственного интеллекта. Anthropic вливает беспрецедентный капитал в вычисления сейчас, делая ставку на то, что возможное появление продвинутого ИИ, потенциально даже superintelligence, принесет доходы, которые оправдают астрономические первоначальные затраты. Речь идет не только о конкуренции сегодня; речь идет об обеспечении доминирующей позиции в глубоко преображенном завтра, где сегодняшние вычислительные ограничения станут завтрашним фундаментальным преимуществом.
Чтобы узнать больше о том, как эти вычислительные давления проявляются в изменениях, ориентированных на пользователя, вы можете прочитать о недавних шагах Anthropic по корректировке доступа к таким функциям, как Claude Code. Anthropic tests how devs react to yanking Claude Code from Pro plan - The Register. Финансовые обязательства компании раскрывают четкую стратегию: тратить больше, чтобы превзойти в инновациях, даже если это означает преодоление краткосрочных недовольств пользователей и корректировок цен.
Как конкуренты воспользовались ошибкой
Напряженно конкурентная среда AI гарантировала, что вызванная вычислительными мощностями ошибка Anthropic немедленно стала возможностью для конкурентов. В течение нескольких часов после того, как разработчики поделились скриншотами на X и Reddit, подробно описывающими удаление Claude Code из плана Claude Pro за 20 долларов, конкуренты начали свое стратегическое контрнаступление. Эта агрессивная среда означает, что любая воспринимаемая слабость быстро используется для переключения лояльности пользователей и доли рынка.
Генеральный директор OpenAI Сэм Альтман, всегда бдительный, воспользовался моментом. Он тонко, но целенаправленно подчеркнул собственные надежные возможности кодирования OpenAI, намекая на стабильность и надежность, которых, по-видимому, не хватало Anthropic. Другие сотрудники OpenAI усилили это сообщение в социальных сетях, демонстрируя такие инструменты, как их Advanced Data Analysis (ранее Code Interpreter) и обширную документацию API для генерации кода.
Такие публичные промахи являются бесценным оружием для конкурентов. Недовольные пользователи, особенно разработчики, которые полагаются на постоянные инструменты для своей работы, быстро ищут альтернативы, когда основные функции исчезают или модели ценообразования становятся непредсказуемыми. «Небольшой тест», который затрагивает общедоступную документацию и страницы с ценами для такой критически важной функции, как Claude Code, вызывает немедленное недоверие, что позволяет конкурентам легко представить себя как стабильный и надежный выбор.
Сохранение лояльности разработчиков и обеспечение выгодных корпоративных контрактов зависит от непоколебимой надежности и предсказуемого ценообразования. Компании интегрируют инструменты AI в критически важные рабочие процессы, что означает, что они не могут терпеть внезапные, необъявленные изменения функциональности или стоимости. Тихое удаление Claude Code компанией Anthropic, даже если оно было временным, сигнализировало о нестабильности, которую более крупные конкуренты быстро противопоставили своим собственным предложениям.
Этот инцидент вышел за рамки простой корректировки функции; он стал публичной проверкой приверженности Anthropic своей пользовательской базе. Для таких конкурентов, как OpenAI, Google и Meta, это предложило четкий нарратив: в то время как Anthropic боролась со своими вычислительными ограничениями и неоднозначным ценообразованием, их платформы оставались непоколебимыми, готовыми приветствовать пользователей, ищущих последовательную, мощную помощь в кодировании AI. Конкурентный удар был быстрым, рассчитанным и эффективным.
Шведский стол AI «все, что вы можете съесть» закрывается
Модель Anthropic «все, что вы можете съесть» для высококлассного AI быстро истекает. Ее Claude Pro за 20 долларов в месяц, изначально предлагавший широкий доступ, функционировал как шведский стол с фиксированной ценой. Эта модель работает только в том случае, если среднее потребление остается низким, но реальность использования продвинутого AI, особенно с Claude Code, разрушила это предположение.
Небольшой процент активных пользователей потребляет непропорционально большой, даже ошеломляющий объем ресурсов. Выполнение многочасовых рабочих процессов агентов или поддержание постоянно включенных сеансов кодирования требует экспоненциально больше вычислительной мощности, чем стандартные чат-подсказки. Anthropic признала, что ее план за 20 долларов в месяц никогда не предназначался для таких интенсивных приложений; некоторые пользователи Pro, как сообщается, достигали своих лимитов использования всего после нескольких подсказок во время коротких сеансов кодирования. Такое интенсивное использование, особенно из-за продвинутых функций, таких как Opus 4 и долгосрочные агенты, быстро делает фиксированную ставку невыгодной.
Ценообразование для таких сервисов, как Claude Pro, изначально основывалось на предположениях о среднем вовлечении пользователей и стоимости обслуживания запросов. Однако быстрое развитие возможностей AI резко увеличило стоимость вычислений на одного пользователя, сделав эти предположения о 20 долларах в месяц устаревшими. Фундаментальный недостаток проявился, когда искушенные пользователи использовали модели в полной мере, значительно превысив прогнозируемое потребление ресурсов за фиксированную плату.
Этот инцидент, независимо от его временной отмены, посылает недвусмысленный сигнал всему ландшафту ИИ. Эра дешевого, неограниченного доступа к передовым генеративным моделям ИИ однозначно подходит к концу. Такие компании, как Anthropic, сталкивающиеся с огромными экономическими реалиями масштабирования вычислительных мощностей ИИ, не могут поддерживать фиксированные тарифы, когда небольшая часть пользователей расходует ресурсы на миллионы долларов.
Потребителям следует готовиться к более строгим правилам использования, многоуровневым структурам ценообразования и более высоким затратам на расширенные функции. Поскольку генеральный директор Дарио Амодей Амодей ориентируется в реальности компании, ограниченной вычислительными мощностями, будущие предложения будут отражать истинную стоимость мощного ИИ. Первоначальная цена в $20 в месяц, когда-то бывшая воротами к передовому ИИ, теперь кажется неустойчивым пережитком. «Шведский стол» ИИ закрывается, уступая место более детализированной, основанной на использовании структуре оплаты.
Ваш счет за ИИ скоро вырастет
Эра фиксированных, всеобъемлющих подписок на ИИ однозначно заканчивается. Тихое решение Anthropic удалить Claude Code из своего плана Pro за $20, даже если оно было временно отменено, служит ярким предвестником будущего отрасли. Ограничения вычислительных мощностей, открыто признанные генеральным директором Дарио Амодеем Амодеем, и непомерная стоимость запуска сложных моделей делают текущую модель «все, что вы можете съесть» неустойчивой для поставщиков.
Ожидайте быстрого перехода к детализированному ценообразованию на основе использования. Компании, работающие с ИИ, будут взимать плату за отдельные токены, конкретные вызовы API или даже за каждый шаг в сложных рабочих процессах агентов. Это отражает эволюцию облачных вычислений, где пользователи платят ровно за то, что потребляют, а не за общую подписку. Такие функции, как Claude Code, многошаговые агенты и большие контекстные окна, которые, как известно, требуют больших вычислительных ресурсов, будут стоить значительно дороже. Пользователи Pro уже сообщают, что достигают своих лимитов всего после нескольких запросов во время коротких сеансов кодирования, что подчеркивает напряжение текущей модели.
Ожидайте появления более строгих многоуровневых планов. Четкое разделение будет отделять обычных пользователей от тех, кто требует серьезных вычислительных мощностей. «Просьюмеры» и малые предприятия могут получить ограниченный, возможно, более медленный опыт, в то время как клиенты Enterprise, которым требуются выделенные ресурсы для критически важных приложений, будут платить значительно больше. Эта бифуркация гарантирует надлежащую монетизацию высокоценных, ресурсоемких функций.
Пользователи должны быть готовы к менее предсказуемым ежемесячным счетам. Бюджетирование ИИ скоро будет напоминать управление коммунальными услугами, колеблясь в зависимости от фактического использования, а не от фиксированной платы. Расширенные функции, такие как интенсивные сеансы кодирования или многочасовые рабочие процессы агентов, станут премиальными функциями, доступными только тем, кто готов поглотить более высокие затраты. Для получения более подробной информации об этой развивающейся тенденции см. Anthropic рассматривает возможность удаления Claude Code из своего плана Pro за $20 - PCWorld.
Этот сдвиг парадигмы не является исключительным для Anthropic; он отражает общеотраслевую переоценку экономических моделей. По мере расширения возможностей ИИ растет и базовая вычислительная нагрузка. Провайдеры не могут бесконечно субсидировать ресурсоемкие задачи за фиксированную плату, особенно по мере того, как такие модели, как Claude Opus 4, и сложные агентские фреймворки становятся обычным явлением. Дни неограниченных экспериментов с ИИ за фиксированную плату быстро уходят в прошлое, открывая эру, когда передовой ИИ поставляется с соразмерной ценой и необходимостью тщательного управления ресурсами.
Урок прозрачности и доверия
Тихое удаление Anthropic функции Claude Code из своего плана Claude Pro за $20 предлагает суровый урок прозрачности и доверия. Сообщество разработчиков обнаружило это значительное изменение не через официальные каналы, а через общие скриншоты на X и Reddit. Этот секретный «тест», затронувший примерно 2% новых регистраций, вызвал широкую негативную реакцию и подорвал доверие к коммуникационной практике Anthropic, бросив тень на его публичный имидж.
Anthropic культивирует имидж, сосредоточенный на безопасности ИИ и ответственном развитии, публичную позицию, которую отстаивает генеральный директор Dario Amodei. Тем не менее, необъявленное изменение основной функции продукта — позже объясненное руководителем отдела роста Amol Avasare как ограниченный эксперимент — прямо противоречило этому этосу. Такой непрозрачный подход оказался неудобным для пользователей и подпитал скептицизм, особенно когда общедоступные страницы с ценами временно отражали изменение для всех, несмотря на заявление об ограниченном тесте.
Последствия инцидента подчеркивают репутационный ущерб, когда действия компании расходятся с ее заявленными ценностями. Для такой фирмы, как Anthropic, стремящейся быть лидером в области этического ИИ, восприятие скрытого повышения цен на ключевые функции, такие как Claude Code, обнаруженное случайно, а не объявленное, особенно вредно. Это порождает недоверие среди тех самых пользователей, которые критически важны для долгосрочного принятия платформы и инноваций.
Этот промах произошел в критический момент для Anthropic. Компания обладает передовыми технологиями и значительным финансированием, что позиционирует ее как грозного конкурента в сфере ИИ. Однако отчуждение сообщества разработчиков — жизненно важного источника обратной связи, интеграции и органического роста — создает значительное препятствие. Восстановление доверия разработчиков требует последовательного, открытого общения, проактивных объявлений об изменениях продукта и приверженности честной деловой практике.
По мере созревания экономики ИИ компании будут отличаться не только технологическим мастерством, но и своей честностью и стратегиями взаимодействия с пользователями. Конфликт вокруг Claude Code подчеркивает жизненно важную истину: мощные модели ИИ должны сочетаться с прозрачным, этическим взаимодействием. Устойчивый успех в этом быстро развивающемся секторе в конечном итоге будет благоприятствовать тем, кто ставит во главу угла доверие пользователей и четкую коммуникацию, обеспечивая рост на прочном фундаменте надежности и уважения.
Часто задаваемые вопросы
В чем заключалось изменение цены Claude Pro?
Anthropic тайно тестировала удаление своей мощной функции Claude Code из стандартного плана Pro за $20 в месяц, фактически сделав ее эксклюзивной для гораздо более дорогого уровня Max tier.
Почему Anthropic тестировала это изменение?
Официальная причина заключалась в том, что план Pro не был предназначен для интенсивных рабочих процессов кодирования. Однако основной причиной является острая, общеотраслевая нехватка вычислительной мощности, необходимой для запуска этих передовых моделей ИИ.
Вернулся ли план Claude Pro к норме сейчас?
Да. После значительной негативной реакции пользователей в социальных сетях Anthropic быстро отменила изменения, назвав инцидент «небольшим тестом» и временно вернув Claude Code в план Pro.
Станут ли подписки на ИИ дороже в будущем?
Это событие убедительно свидетельствует о том, что подписки на ИИ с фиксированной ставкой становятся неустойчивыми. Пользователям следует ожидать повышения цен, ужесточения лимитов использования или перемещения большего количества функций на премиум-уровни.