Предательство Claude на $100

Anthropic незаметно перенесла свой лучший инструмент для кодирования на тарифный план, который в пять раз дороже, что вызвало массовое восстание пользователей. Вот внутренняя история 24-часовой ошибки, которая подорвала доверие к ведущей ИИ-компании.

Stork.AI
Hero image for: Предательство Claude на $100
💡

Кратко / Главное

Anthropic незаметно перенесла свой лучший инструмент для кодирования на тарифный план, который в пять раз дороже, что вызвало массовое восстание пользователей. Вот внутренняя история 24-часовой ошибки, которая подорвала доверие к ведущей ИИ-компании.

Тайное изменение, которое вызвало бурю негодования

21 апреля 2026 года разработчики столкнулись с шокирующим открытием: мощная функция Claude Code от Anthropic исчезла из тарифного плана Pro за $20 в месяц. Это было не просто незначительное обновление; Claude Code функционировал как продвинутая агентная система кодирования, позволяющая пользователям читать сложные кодовые базы, формулировать комплексные действия, выполнять их с помощью интегрированных инструментов разработки и внедрять изменения в нескольких файлах. Его внезапное, необъявленное удаление лишило ключевой возможности тарифный план, который многие профессионалы считали незаменимым для своей повседневной работы.

Anthropic не предоставила ни уведомления по электронной почте, ни официального сообщения в блоге, ни формального объявления, чтобы объяснить это значительное изменение. Вместо этого компания незаметно обновила свою страницу с ценами, тонко изменив набор функций, указанных для уровня Pro. Это глубокое отсутствие прозрачности немедленно вызвало широкое замешательство и гнев на платформах социальных сетей, поскольку пользователи почувствовали себя совершенно ошеломленными компанией, которой они ранее доверяли свои критически важные инструменты разработки и ежемесячные подписки.

Разочарование сообщества быстро переросло в чувство предательства, когда стали ясны истинные последствия. Доступ к незаменимому Claude Code теперь требовал перехода на план Claude Max, который предусматривает минимальные инвестиции в $100 в месяц. Это ошеломляющее пятикратное увеличение цены за основную функциональность вызвало возмущение среди сообщества разработчиков. ИИ-комментатор Мэттью Берман выразил это настроение, резко раскритиковав коммуникацию Anthropic как «неискреннюю» и заявив, что это «все труднее и труднее доверять Anthropic свои деньги». Тайное изменение вызвало интенсивную бурю негодования, которая поставила под сомнение приверженность Anthropic своей пользовательской базе.

Больше, чем инструмент: почему Claude Code важен

Иллюстрация: Больше, чем инструмент: почему Claude Code важен
Иллюстрация: Больше, чем инструмент: почему Claude Code важен

Больше, чем просто инструмент автозаполнения, Claude Code функционирует как продвинутая агентная система кодирования, автономно считывая целые кодовые базы, формулируя сложные планы разработки и выполняя замысловатые изменения в нескольких файлах. Он выходит за рамки простых предложений, активно взаимодействуя с архитектурой проекта для реализации надежных решений.

Недавние мощные обновления значительно расширили его возможности, представив повторяемые рутины и динамические агентные команды. Эти улучшения, основанные на грозной модели Claude Opus 4.6, позволили разработчикам делегировать более сложные, многогранные задачи, превратив Claude Code в незаменимого виртуального сотрудника для сложных программных проектов.

Эта эволюция закрепила Claude Code как основной компонент повседневной работы многих разработчиков. Он ловко справлялся с утомительным рефакторингом, сложной отладкой и модификациями между файлами — задачами, которые отнимают значительное количество человеческого времени и усилий. Его способность автономно планировать и выполнять действия по всей кодовой базе оптимизировала циклы разработки, освобождая инженеров для решения проблем более высокого уровня и инноваций.

Поэтому внезапное исчезновение Claude Code из тарифного плана Pro за $20 в месяц означало гораздо больше, чем просто потерю необязательной функции. Для бесчисленных пользователей это означало потерю критически важного двигателя эффективности, что в одночасье подорвало их производительность. Внезапное требование перейти на план Max за $100 в месяц для продолжения доступа резко подчеркнуло его ценность, наложив пятикратное увеличение цены на инструмент, который многие считали необходимым, а не необязательным.

Пятикратный скачок: от $20 до $100

Внезапное изменение со стороны Anthropic означало, что пользователи Claude Code столкнулись с немедленным и серьезным финансовым препятствием. Доступ к агентной системе кодирования, ранее доступной по тарифному плану Pro за $20 в месяц, теперь требовал подписки на премиум-план Max, начиная со значительных $100 в месяц. Этот необъявленный сдвиг кардинально изменил стоимость использования критически важного инструмента разработки.

Это означало ошеломляющее пятикратное повышение цены для разработчиков, использующих Claude Code. Такой непропорциональный скачок создал немедленный и серьезный барьер для независимых разработчиков, студентов и начинающих стартапов. Эти группы часто работают с ограниченным бюджетом, что делало тарифный план Pro за $20 доступной точкой входа в продвинутое кодирование с помощью ИИ.

Известный ИИ-комментатор Мэттью Берман быстро выразил свое возмущение, назвав сообщение Anthropic «неискренним». Берман подчеркнул огромный финансовый скачок, заявив, что это делает «все труднее и труднее доверять Anthropic свои деньги». Это мнение широко распространилось среди сообществ разработчиков, которые были застигнуты врасплох внезапным и без предупреждения удалением ценной функции. Для получения дополнительной информации по аналогичным обсуждениям см. Anthropic considers pulling Claude Code from its $20 Pro plan - PCWorld.

Отсутствие прозрачности вокруг этого шага подпитывало обвинения в корпоративном пренебрежении к своей пользовательской базе. То, что для многих было практичной и доступной утилитой, внезапно превратилось в роскошь, доступную только тем, кто готов или способен понести значительные новые ежемесячные расходы по Max plan. Инцидент подчеркнул растущую напряженность между поставщиками ИИ и их сообществами разработчиков.

«Труднее доверять»: Восстание пользователей

Возмущение сообщества вспыхнуло на социальных платформах после тихого удаления Claude Code из тарифного плана Pro от Anthropic. Влиятельные голоса на X (ранее Twitter), Reddit и YouTube быстро распространили эту новость, вызвав шквал критики в адрес разработчика ИИ. Пользователи почувствовали себя преданными из-за необъявленного изменения, восприняв его как преднамеренное оскорбление их доверия.

Известный ИИ-комментатор Мэттью Берман возглавил атаку, выразив широкое разочарование в своем видео на YouTube «Удаление платных функций (без предупреждения)». Берман особо осудил действия Anthropic, назвав их сообщение «неискренним». Он подчеркнул резкое пятикратное повышение цены, вынуждающее пользователей Pro переходить с $20 на минимум $100 в месяц за основные возможности кодирования.

Критика Бермана нашла отклик в сообществе, пользователи вторили его мнению о том, что «все труднее и труднее доверять Anthropic свои деньги». Отсутствие какого-либо официального объявления, замененное незаметным изменением на странице ценообразования, подпитывало обвинения в корпоративном обмане. Это отсутствие прозрачности подорвало доверие к приверженности Anthropic своим платящим клиентам.

Многие пользователи истолковали тихое удаление функции как расчетливую попытку проверить толерантность рынка к более высоким ценам. Этот «небольшой тест», как позже описал его руководитель отдела роста Anthropic Амол Авасаре, затронул примерно 2% новых регистраций просюмеров, но его раскрытие вызвало непропорционально сильную реакцию. Существующие подписчики Pro и Max изначально не пострадали, однако потенциальный прецедент встревожил всю пользовательскую базу.

Пользователи выразили чувства неуважения и эксплуатации, расценивая этот шаг как прямой вызов их лояльности. Восприятие того, что Anthropic пытается незаметно повысить цены на ключевую агентную функцию, такую как Claude Code, оставило горький привкус. Это наводило на мысль о компании, которая ценит прибыль больше, чем прозрачное взаимодействие со своим сообществом.

Этот инцидент, в результате которого Claude Code был восстановлен в плане Pro в течение 24 часов из-за сильной негативной реакции, серьезно подорвал репутацию Anthropic в области этической разработки ИИ. Быстрая отмена решения, сопровождавшаяся признанием Авасаре «ошибки в коммуникации», мало что сделала для подавления глубинного недоверия. Это подчеркнуло хрупкость отношений между разработчиками ИИ и их преданной пользовательской базой, особенно когда изменения затрагивают основные функции.

Отмена решения за 24 часа: «Ошибка в коммуникации»

Иллюстрация: Отмена решения за 24 часа: «Ошибка в коммуникации»
Иллюстрация: Отмена решения за 24 часа: «Ошибка в коммуникации»

Anthropic осуществила быстрое, рискованное отступление. Менее чем через 24 часа после того, как разработчики обнаружили скрытое удаление Claude Code из своего плана Pro, компания изменила курс, восстановив мощную функцию агентного кодирования 22 апреля 2026 года. Это быстрое восстановление произошло на фоне беспрецедентной волны возмущения пользователей, продемонстрировав немедленное влияние реакции сообщества.

Руководитель отдела роста Амол Авасаре быстро предложил официальное объяснение спорного шага. Он представил первоначальное изменение, которое внезапно потребовало перехода с плана Pro за $20 в месяц на план Max за $100 в месяц для доступа к Claude Code, как всего лишь «небольшой тест». Авасаре уточнил, что этот тест затронул только около 2% новых регистраций просюмеров, утверждая, что существующие подписчики Pro и Max остались незатронутыми.

Однако многие наблюдатели и отраслевые комментаторы сочли рассказ Авасаре о «тесте» труднодостоверным. Объяснение казалось не столько подлинным, запланированным экспериментом, сколько отчаянной, реактивной попыткой контроля ущерба после интенсивного восстания сообщества. Влиятельные голоса, такие как Мэттью Берман, широко осудили предполагаемую неискреннюю коммуникацию Anthropic и необъявленное повышение цен.

Подавляющая негативная огласка на таких платформах, как X, Reddit и YouTube, вероятно, вынудила Anthropic действовать, что привело к быстрой отмене решения. Компания столкнулась с немедленным и значительным репутационным ущербом из-за необъявленного удаления функции и предполагаемого пренебрежения доверием пользователей. Публичное признание Авасаре «ошибки в коммуникации» дополнительно намекнуло на хаотичный характер первоначального запуска и последующего отступления.

Хотя функция agentic coding systems вернулась в план Pro, 24-часовая сага оставила неизгладимый след в доверии пользователей. Доверие к компании сильно пошатнулось, что вызвало острые вопросы о будущей прозрачности ценообразования и долгосрочной стабильности доступа к передовым инструментам ИИ. Внезапный сдвиг и последующий откат, несмотря на объяснение «тестом», мало что сделали для восстановления доверия, утраченного в ходе краткого, но значимого испытания, заставив многих пользователей задуматься об истинных намерениях Anthropic в отношении своих премиальных предложений.

Истинная причина: Agentic AI разрушает подписки

Инструменты Agentic AI, такие как Claude Code, представляют собой серьезную экономическую проблему для их разработчиков. Эти системы действуют как автономные агенты, способные читать целые кодовые базы, формулировать сложные планы и выполнять изменения в нескольких файлах без постоянного человеческого надзора. Такие сложные, многошаговые операции требуют огромных, постоянных вычислительных ресурсов, что делает их гораздо более дорогими в эксплуатации, чем типичные разговорные large language models. Это различие имеет решающее значение для понимания основных финансовых давлений.

Это растущее вычислительное бремя напрямую повлияло на Anthropic. Внутренние данные компании выявили критическую нагрузку на их инфраструктуру: еженедельное количество активных пользователей Claude Code удвоилось в период с января по февраль 2026 года. Этот взрывной рост, хотя и является свидетельством полезности функции, сделал ее включение в план Pro за $20 в месяц финансово неустойчивым, особенно для опытных пользователей, использующих все ее агентные возможности.

Модели подписки с фиксированной ставкой, являющиеся основой индустрии программного обеспечения, оказываются фундаментально несовместимыми с экономикой продвинутого agentic AI. В отличие от традиционного SaaS, где затраты на предоставление услуг относительно предсказуемы, каждое взаимодействие с мощным AI agent может потреблять совершенно разные, часто значительные, объемы compute. Предложение неограниченного доступа к такому ресурсу по низкой фиксированной цене создает неустойчивую отрицательную обратную связь для провайдера, где успех (больше использования) приводит к увеличению затрат и снижению прибыльности.

Кратковременное удаление и быстрое восстановление Claude Code из плана Pro было не просто «ошибкой в коммуникации», как публично заявила Anthropic. Вместо этого, это служит ярким симптомом более широкой, общеотраслевой экономической дилеммы. По мере того, как возможности AI развиваются в сложные, многоступенчатые agentic functions, компании сталкиваются с трудностями в согласовании высоких операционных расходов с ожиданиями пользователей относительно доступного, неограниченного доступа. Этот инцидент подчеркивает критическую переломную точку для всей индустрии AI.

Ожидайте значительного отхода от простых подписок с фиксированной ставкой для самых мощных функций AI. Провайдеры будут все чаще исследовать тонкие стратегии ценообразования, включая модели, основанные на использовании, многоуровневые планы со строгими ограничениями скорости или значительно более высокие ценовые точки для премиального agentic доступа. Эта эволюция необходима для обеспечения экономической жизнеспособности разработки и развертывания передового AI без наказания большинства пользователей завышенными базовыми затратами. Для дальнейшего анализа ценовых тестов Anthropic и реакции разработчиков читайте Anthropic tests how devs react to yanking Claude Code from Pro plan - The Register.

Это новая стратегия **Anthropic**?

Инцидент с Claude Code не был единичной ошибкой для Anthropic; он последовал за серией необъявленных корректировок, которые неуклонно подрывали доверие пользователей. Этот шаблон указывает на новую, более агрессивную стратегию, поскольку компания борется с огромными computational costs продвинутого AI. Эти молчаливые изменения намекают на стратегический поворот, приоритизирующий финансовую устойчивость над прозрачной коммуникацией со своей пользовательской базой.

Всего за несколько недель до фиаско с Claude Code, Anthropic внедрила еще одно значительное, необъявленное изменение политики. 4 апреля 2026 года компания заблокировала сторонним agentic tools доступ к своим планам Pro и Max. Это внезапное ограничение помешало пользователям интегрировать Claude с внешними инструментами автоматизации, нарушив установленные рабочие процессы и вынудив разработчиков переоценивать свои AI stacks без предварительного предупреждения или объяснения.

Ранее, в ноябре 2025 года, Anthropic также незаметно изменила свою модель подписки Claude Enterprise. Переход произошел от предсказуемой структуры с фиксированной платой к потенциально более дорогому ценообразованию, основанному на использовании, для своих корпоративных клиентов. Это изменение, опять же выполненное без четкой коммуникации, сигнализировало о растущей борьбе Anthropic с огромными computational demands своих самых мощных моделей AI, особенно по мере расширения agentic use cases.

Эти последовательные инциденты — от блокировки agentic tool 4 апреля, до корректировки ценообразования Enterprise в ноябре 2025 года, и совсем недавно, удаления и быстрого восстановления Claude Code — рисуют тревожную картину. Становятся ли необъявленные, недружественные к пользователям изменения политики стандартной операционной процедурой Anthropic? Компания, похоже, принимает реактивные решения под финансовым давлением, постоянно приоритизируя управление затратами над прозрачными отношениями с пользователями и вовлеченностью сообщества.

Такие повторяющиеся действия рискуют оттолкнуть самих разработчиков и предприятия, которые стимулируют инновации на ее платформе, как это открыто подчеркивали влиятельные голоса, такие как Matthew Berman. Череда молчаливых изменений и быстрых отступлений Anthropic указывает на компанию, которая изо всех сил пытается сбалансировать свои передовые технологии с устойчивой экономикой, но делает это за счет доверия и лояльности своего сообщества. Такой подход может оказаться пагубным в долгосрочной перспективе.

Конкуренты почуяли кровь

Иллюстрация: Конкуренты почуяли кровь
Иллюстрация: Конкуренты почуяли кровь

Соперники с пристальным интересом наблюдали за промахом Anthropic. OpenAI, основной конкурент, быстро воспользовался возникшим хаосом, используя повсеместное разочарование разработчиков. Они публично подтвердили надежную доступность OpenAI's Codex, своего мощного помощника по кодированию, заверив разработчиков, что он остается доступным, стабильным и постоянно ценовым инструментом.

Кратковременное удаление Claude Code от Anthropic из Pro plan вызвало шок в сообществе разработчиков, подорвав с трудом завоеванное доверие. Разговоры немедленно распространились по X, Reddit и форумам. Разработчики открыто обсуждали переход на альтернативы, ссылаясь на глубокую потерю надежности и уверенности в будущем ценообразовании Anthropic.

Многие рассматривали более стабильных коммерческих конкурентов, предлагающих предсказуемые модели подписки и прозрачные дорожные карты. Другие исследовали растущую экосистему открытых и локальных моделей ИИ, стремясь к большему контролю и свободе от привязки к поставщику. Широко распространенное мнение Matthew Berman: «все труднее и труднее доверять Anthropic свои деньги», стало призывом к действию.

Единое, скрытое изменение на странице ценообразования создало значительную возможность для конкурентов переманивать пользователей. Этот кратковременный провал в доверии предоставил явный шанс привлечь разочарованных пользователей, ищущих новые платформы. Конкуренты осознали уязвимость позиции Anthropic, понимая, что разработчики отдают приоритет стабильности и четкой коммуникации.

Завоевание и удержание лояльности разработчиков имеет первостепенное значение в условиях жесткой конкуренции в сфере ИИ. Пользователи тратят значительное время на интеграцию сложных инструментов ИИ в свои рабочие процессы; внезапные, несообщенные изменения функций подрывают эти инвестиции. Этот инцидент предоставил конкурентам прямой путь к получению ценной доли рынка и укреплению новых союзов.

Этот эпизод подчеркивает хрупкость отношений с пользователями в быстро развивающемся секторе ИИ, особенно в отношении основных инструментов для разработчиков. Прозрачность, надежность и последовательная коммуникация — это не просто хорошие деловые практики; это критические отличительные черты для лидерства на рынке. Компании, не соблюдающие эти принципы, рискуют быстрым оттоком пользователей.

Основная проблема Anthropic проистекает из огромных вычислительных затрат сложных агентных систем кодирования, что делает подписки с фиксированной ставкой экономически неустойчивыми. Хотя проблема понятна, реализация оттолкнула ее основную пользовательскую базу, что оказалось катастрофическим. Конкуренты теперь обладают четким планом как для эффективного конкурентного позиционирования, так и для критических операционных ловушек, которых следует избегать.

Доверие, однажды нарушенное, трудно восстановить

Быстрая отмена решения по Claude Code дала Anthropic время, но не стерла фундаментальный ущерб ее бренду. Особенно в рамках ключевого сообщества разработчиков этот эпизод серьезно подорвал доверие, которое лежит в основе профессиональной зависимости от платформ ИИ.

Для разработчиков доверие функционирует как ключевая особенность продукта. Предсказуемость, постоянный доступ к мощным инструментам, таким как Claude Code, и прозрачная коммуникация — это не роскошь, а необходимость для интеграции AI в сложные рабочие процессы. Необъявленное, скрытое изменение 21 апреля 2026 года, которое внезапно удалило Claude Code из Pro plan за $20 в месяц, разрушило этот неявный контракт.

Пользователи, возглавляемые влиятельными голосами, такими как Matthew Berman, столкнулись с непосредственной угрозой пятикратного повышения цены, с $20 до $100 в месяц, за необходимую агентную функциональность кодирования. Это одностороннее изменение, даже если оно было быстро отозвано, выявило готовность менять условия без предупреждения, что делает будущие зависимости ненадежными.

Даже 24-часовой откат, представленный Anthropic как «ошибка коммуникации», с трудом полностью устраняет первоначальное нарушение. Инцидент посеял долгосрочное зерно сомнения: пользователи теперь ставят под сомнение стабильность своих подписок и долгосрочную приверженность Anthropic своим текущим предложениям. Эта неопределенность заставляет разработчиков опасаться глубокой интеграции платформы Anthropic в свои критически важные проекты, опасаясь дальнейших необъявленных изменений.

Недавняя модель изменений компании, включая блокировку сторонних агентных инструментов из планов Pro/Max 4 апреля, усиливает эти опасения относительно стабильности платформы. Подробнее о более широких рыночных последствиях, включая то, как конкуренты извлекли выгоду, см. Anthropic's Claude Code pricing pain is Sam Altman's pleasure - Business Insider. После того как она нарушена, надежность, которую требуют разработчики, notoriously трудно восстановить в быстро меняющемся ландшафте AI.

Ваш счет за подписку на AI скоро изменится

Сага о Anthropic Claude Code предлагает четкий план будущего подписок на AI. 21 апреля 2026 года скрытое удаление Anthropic Claude Code из плана Pro, вынуждающее к обновлению с $20 до $100 в месяц, вызвало бурю негодования, что привело к быстрому откату. Этот инцидент был не разовой ошибкой, а ярким предвестником, сигнализирующим о неизбежной общерыночной эволюции моделей ценообразования AI.

Подписки с фиксированной ставкой, когда-то бывшие основой для услуг AI, становятся несостоятельными для вычислительно интенсивных функций. Инструменты Agentic AI, такие как Claude Code, которые автономно читают кодовые базы, планируют задачи и выполняют изменения в нескольких файлах, требуют огромной вычислительной мощности. Провайдеры не могут поддерживать эти значительные операционные расходы с помощью простых планов «все включено» для своих самых мощных предложений.

Ожидайте, что рынок будет использовать многоуровневые подписки, тарификацию по потреблению или гибридные модели. Более высокие уровни разблокируют расширенные агентные возможности, в то время как тарификация по потреблению будет взимать плату с пользователей на основе фактического потребления вычислительных ресурсов для конкретных, ресурсоемких операций. Требование плана Max за $100 в месяц для Claude Code было ранней, хотя и плохо сообщенной, попыткой этой необходимой стратификации. Этот сдвиг отражает истинную стоимость новаторского AI.

Пользователи должны подготовиться к этой новой эре биллинга AI. Проактивно и тщательно проверяйте текущее использование инструментов AI, определяя, какие функции действительно незаменимы, а какие потребляют больше всего ресурсов. Поймите, что огромные вычислительные затраты на 'agentic' AI неизбежно приведут к более высоким и переменным ценам. Изучите конкурирующих поставщиков; OpenAI заметно воспользовалась промахом Anthropic, подтвердив широкую доступность своего инструмента Codex, предоставив альтернативу. Диверсификация вашего набора инструментов AI на разных платформах и готовность корректировать бюджет станут решающими. Дни простых, предсказуемых счетов за подписку на AI заканчиваются, их сменяет нюансированный ландшафт, где самые мощные функции имеют ценник, отражающий их вычислительную интенсивность.

Часто задаваемые вопросы

В чем заключался спор вокруг Anthropic Claude Code?

Anthropic без предупреждения удалила Claude Code из своего тарифа Pro plan за $20/месяц, требуя для доступа тариф Max plan за $100/месяц. Они отменили это решение менее чем за 24 часа после значительной негативной реакции сообщества.

Почему Anthropic попыталась изменить свою ценовую политику?

Компания сослалась на высокие вычислительные затраты на продвинутые 'agentic' функции, такие как Claude Code, указав, что их модель подписки с фиксированной ставкой неустойчива для такого интенсивного использования.

Claude Code снова доступен на Pro plan?

Да, после общественного резонанса Anthropic восстановила доступ к Claude Code на Pro plan для подавляющего большинства своих пользователей, назвав первоначальное удаление 'ошибкой коммуникации' и 'небольшим тестом'.

Кто такой Matthew Berman и какова была его роль?

Matthew Berman — популярный AI-комментатор на YouTube. Его видео под названием 'Removing paid features (no warning)' сыграло важную роль в усилении критики действий Anthropic со стороны пользовательского сообщества.

Часто задаваемые вопросы

Это новая стратегия **Anthropic**?
Инцидент с Claude Code не был единичной ошибкой для Anthropic; он последовал за серией необъявленных корректировок, которые неуклонно подрывали доверие пользователей. Этот шаблон указывает на новую, более агрессивную стратегию, поскольку компания борется с огромными computational costs продвинутого AI. Эти молчаливые изменения намекают на стратегический поворот, приоритизирующий финансовую устойчивость над прозрачной коммуникацией со своей пользовательской базой.
В чем заключался спор вокруг Anthropic Claude Code?
Anthropic без предупреждения удалила Claude Code из своего тарифа Pro plan за $20/месяц, требуя для доступа тариф Max plan за $100/месяц. Они отменили это решение менее чем за 24 часа после значительной негативной реакции сообщества.
Почему Anthropic попыталась изменить свою ценовую политику?
Компания сослалась на высокие вычислительные затраты на продвинутые 'agentic' функции, такие как Claude Code, указав, что их модель подписки с фиксированной ставкой неустойчива для такого интенсивного использования.
Claude Code снова доступен на Pro plan?
Да, после общественного резонанса Anthropic восстановила доступ к Claude Code на Pro plan для подавляющего большинства своих пользователей, назвав первоначальное удаление 'ошибкой коммуникации' и 'небольшим тестом'.
Кто такой Matthew Berman и какова была его роль?
Matthew Berman — популярный AI-комментатор на YouTube. Его видео под названием 'Removing paid features ' сыграло важную роль в усилении критики действий Anthropic со стороны пользовательского сообщества.
🚀Узнать больше

Будьте в курсе трендов ИИ

Откройте лучшие инструменты ИИ, агенты и MCP-серверы от Stork.AI.

Все статьи