Азартная игра Anthropic с ИИ: Opus 4.7 отстой?

Anthropic только что выпустила Claude Opus 4.7, обещая божественные возможности ИИ. Но ведущие эксперты, такие как Matthew Berman, обнаруживают серьезные недостатки, которые могут сделать его огромным шагом назад.

Stork.AI
Hero image for: Азартная игра Anthropic с ИИ: Opus 4.7 отстой?
💡

Кратко / Главное

Anthropic только что выпустила Claude Opus 4.7, обещая божественные возможности ИИ. Но ведущие эксперты, такие как Matthew Berman, обнаруживают серьезные недостатки, которые могут сделать его огромным шагом назад.

Мир ИИ затаил дыхание

Matthew Berman, выдающийся эксперт по ИИ и основатель Forward Future, не стал стесняться в выражениях. Его видео на YouTube под названием «Seeing if Opus 4.7 sucks [LIVE]» сразу задало провокационный тон, бросая вызов стандартному нарративу о прогрессе в искусственном интеллекте. Этот прямой, бескомпромиссный подход привлек внимание сообщества, уже переполненного ожиданием новейшей флагманской модели Anthropic, Claude Opus 4.7. Одно только название видео Berman’а сигнализировало о критическом глубоком анализе, выходящем за рамки маркетинговой шумихи для изучения реальной производительности, вторя настроениям его ресурсов, таких как «The Subtle Art of Not Being Replaced» и «Humanity's Last Prompt Engineering Guide».

Anthropic позиционировала Claude Opus 4.7 как свою самую мощную модель Opus на сегодняшний день, представляющую собой центр гибридного рассуждения с впечатляющим окном контекста в 1M. Выпущенная 16 апреля 2026 года, эта модель появилась с большими ожиданиями. Индустрия ждала решительного скачка в возможностях ИИ, особенно в таких областях, как: - Agentic coding - Advanced vision processing - Complex multi-step reasoning

Сообщество ИИ, от индивидуальных разработчиков до крупных корпоративных пользователей, с нетерпением ждало Opus 4.7. Его широкая доступность на основных платформах обещала повсеместную интеграцию: - Пользователи Claude Pro, Max, Team и Enterprise - Разработчики через Claude Platform API - Интеграции на Amazon Bedrock, Google Cloud's Vertex AI и Microsoft Foundry - Развертывание на GitHub Copilot

Разработчики надеялись на надежный инструмент для решения более амбициозных проектов, в то время как предприятия искали повышение эффективности и инновационные решения, оправдывая базовую цену модели в $5 за миллион входных токенов и $25 за миллион выходных токенов. Однако обновленный токенизатор мог увеличить реальную стоимость до 35% для того же ввода, добавляя еще один уровень контроля.

Под поверхностью официальных заявлений и первоначального ажиотажа назревал критический вопрос: оправдал ли Opus 4.7 свои обещания, или Anthropic споткнулась? Несмотря на заявленные улучшения, слухи и экспертные анализы, включая анализ Berman’а, предполагали потенциальные регрессии. Отчеты указывали на значительное снижение производительности извлечения данных из длинного контекста, при этом показатель MRCR benchmark, как сообщается, упал с 78.3% в Opus 4.6. Сообщество готовилось к ответу: был ли это инновационный скачок вперед для Anthropic, или серьезный промах, который мог бы переопределить ожидания от передовых моделей ИИ?

Что обещала Anthropic: Новый рубеж

Иллюстрация: Что обещала Anthropic: Новый рубеж
Иллюстрация: Что обещала Anthropic: Новый рубеж

Anthropic официально представила Claude Opus 4.7 16 апреля 2026 года, позиционируя ее как свою самую мощную и амбициозную модель на сегодняшний день. Компания представила эту новую итерацию как значительный шаг вперед, построенный на трех основных столпах: улучшенном agentic coding, расширенных возможностях зрения и надежном рассуждении корпоративного уровня. Этот выпуск был призван переопределить границы того, что может достичь автономный ИИ, установив высокую планку для ожиданий от его производительности.

Заявления Anthropic относительно Opus 4.7 были особенно смелыми, акцентируя внимание на его способности решать сложные, многоэтапные задачи. Они утверждали, что модель может автономно создавать сложное программное обеспечение из высокоуровневых инструкций, что является значительным шагом к более независимым AI-агентам. Кроме того, его продвинутое зрение позволяло анализировать документы высокого разрешения и сложную визуальную информацию, способствуя более глубокому пониманию и извлечению инсайтов из различных форматов. Окно контекста модели в 1M лежало в основе этих возможностей, позволяя ей обрабатывать и рассуждать над огромными объемами информации.

Широкая доступность стала еще одним стратегическим шагом для Anthropic. Opus 4.7 стал общедоступным для широкого круга пользователей, включая подписчиков Claude Pro, Max, Team и Enterprise. Для разработчиков и крупных организаций Anthropic обеспечил бесшовную интеграцию через несколько платформ: - The Claude Platform API - Amazon Bedrock - Google Cloud's Vertex AI - Microsoft Foundry Эта широкомасштабная стратегия развертывания подчеркнула намерение Anthropic глубоко внедрить Opus 4.7 в существующую экосистему ИИ, сделав его повсеместным инструментом для разработки и развертывания. Его запуск на GitHub Copilot еще больше укрепил его присутствие в рабочем процессе разработчиков.

Маркетинговый язык Anthropic для Opus 4.7 был однозначно напористым, позиционируя модель напрямую против ведущих конкурентов в пространстве LLM. Компания подчеркнула превосходную производительность Opus 4.7 в сложных, мультимодальных задачах и его статус «enterprise-grade», что указывает на его пригодность для критически важных бизнес-приложений, требующих высокой надежности и точности. Это стратегическое сообщение было направлено на захват высокодоходного корпоративного рынка, подчеркивая способность модели к сложному решению проблем и надежному развертыванию.

Структура ценообразования для Opus 4.7 отражала его премиальное позиционирование. Anthropic установил базовую стоимость в $5 за миллион входных токенов и $25 за миллион выходных токенов. Однако, часто упускаемая из виду важная деталь заключалась во влиянии обновленного токенизатора, который мог увеличить фактическую стоимость до 35% за обработку того же объема входных данных. Это ценовое соображение стало критическим фактором для организаций, планирующих крупномасштабные развертывания, добавляя еще один уровень к общему ценностному предложению модели.

Слон в комнате: Сбой контекста

Opus 4.7 от Anthropic сталкивается с наиболее тревожной регрессией в long-context retrieval, фундаментальной возможности для любого продвинутого ИИ. Бенчмарки показывают катастрофическое падение Mean Reciprocal Rank (MRCR), снизившись с 78.3% в предыдущем Opus 4.6 до удручающих 32.2%. Это не незначительное снижение производительности; это представляет собой серьезное ухудшение способности модели обрабатывать и точно вспоминать информацию из обширных, многостраничных входных данных.

MRCR служит критически важной метрикой, количественно определяющей, насколько эффективно модель ИИ может найти определенную «иголку» информации в огромном «стоге сена» текста. Более высокий MRCR указывает на то, что модель быстро находит правильный ответ, часто среди своих первых предложений, что свидетельствует о надежном контекстном понимании. Стремительное падение до 32.2% означает, что Opus 4.7 теперь часто не может идентифицировать важные детали или зарывает их так глубоко в своем выводе, что они становятся практически недоступными. Это серьезно подрывает полезность его обширного окна контекста в 1M, делая его ненадежным для сложного анализа документов.

Этот глубокий провал в сценариях поиска иголки в стоге сена подрывает многие корпоративные приложения, продвигаемые Anthropic. Рассмотрим практические последствия для специалистов, полагающихся на точную, своевременную информацию из больших наборов данных: - Исследователи, пытающиеся синтезировать результаты из обширной научной литературы, юридических прецедентов или исторических архивов. Они не могут доверять модели в определении критически важных фактов или контраргументов. - Разработчики, работающие с обширными кодовыми базами, отлаживающие сложные системы или интерпретирующие обширную документацию по API. Модель может пропустить ключевое определение функции или неясное сообщение об ошибке. - Финансовые и рыночные аналитики, которым необходимо извлекать точные данные, тенденции или нормативные положения из всеобъемлющих отчетов, охватывающих сотни страниц. Пропуск одной цифры может привести к значительным ошибкам.

Для этих пользователей неспособность Opus 4.7 надежно вспоминать конкретные факты делает его значительно менее полезным, даже контрпродуктивным. Модель фактически «забывает» или упускает из виду критически важную информацию, встроенную в тот самый контекст, который она должна понимать, превращая свое большое контекстное окно в пассив, а не в актив.

Anthropic рекламировала Opus 4.7 как превосходную модель, хвастаясь достижениями в области agentic coding, advanced vision и sophisticated enterprise-grade reasoning. Следовательно, резкое ухудшение такой фундаментальной возможности вызывает немедленные и серьезные вопросы о ее разработке и тестировании. Как могла предположительно более способная модель демонстрировать такой серьезный, контринтуитивный шаг назад в основной функции, особенно той, которая так важна для ее заявленных преимуществ? Этот вопиющий недосмотр прямо противоречит нарративу прогресса и бросает длинную тень на общую надежность модели. Для получения более подробной информации о заявленных функциях модели обратитесь к официальному релизу Anthropic: Introducing Claude Opus 4.7 - Anthropic.

Стоимость, которую вы не ожидали

Opus 4.7 от Anthropic появился с неанонсированным финансовым влиянием, сразу же заметным для разработчиков, отслеживающих использование своего API. Новый, более многословный токенизатор значительно увеличивает количество токенов для идентичного входного текста, фактически повышая реальные затраты до 35%. Хотя опубликованные тарифы остаются $5 за миллион входных токенов и $25 за миллион выходных токенов, это закулисное изменение означает, что разработчики платят значительно больше за те же вычислительные усилия, создавая скрытую надбавку за каждое взаимодействие.

Еще больше усугубляя эту финансовую непрозрачность, Anthropic необъяснимо устранила прозрачность в отношении thinking tokens. Предыдущие итерации Opus предоставляли важную информацию о внутренних этапах обработки, позволяя разработчикам с большей точностью прогнозировать и управлять потреблением API. Эта внезапная нехватка видимости теперь вынуждает инженеров работать вслепую, препятствуя их способности точно прогнозировать расходы и оптимизировать сложные стратегии prompt engineering.

Эта новая парадигма затрат фундаментально меняет конкурентное положение Opus 4.7 как по отношению к его предшественнику, Opus 4.6, так и к конкурирующим моделям. Opus 4.6 предлагал более предсказуемую модель затрат, что было критически важно для корпоративных развертываний с ограниченным бюджетом. Теперь флагманская модель Anthropic представляет собой менее прозрачное, потенциально гораздо более дорогое предложение по сравнению с предложениями от OpenAI или Google, где разработчики часто находят более четкие структуры ценообразования для сопоставимых возможностей.

Критический вопрос остается: действительно ли заявленные улучшения производительности Opus 4.7 оправдывают эти возросшие, менее предсказуемые расходы? Anthropic выделяет достижения в agentic coding, advanced vision и enterprise-grade reasoning как ключевые преимущества. Однако эти улучшения теперь должны быть сопоставлены с более высокой эффективной ценой и тревожной регрессией модели в извлечении информации из длинного контекста, что подтверждается MRCR benchmark. Для многих разработчиков ценностное предложение стало значительно более туманным, требуя тщательной переоценки их стратегии инвестиций в ИИ.

'Adaptive Thinking': Особенность или недостаток?

Иллюстрация: 'Adaptive Thinking': Особенность или недостаток?
Иллюстрация: 'Adaptive Thinking': Особенность или недостаток?

Anthropic спорно удалила переключатель Extended Thinking, ключевую функцию, которая ранее предоставляла пользователям детальный контроль над глубиной рассуждений Claude Opus. Этот управляемый пользователем механизм позволял профессионалам явно направлять модель через сложные задачи, обеспечивая тщательность для приложений с высокими ставками. Его исчезновение знаменует собой значительный сдвиг в том, как пользователи взаимодействуют с когнитивными процессами модели.

На смену этому явному контролю пришла Adaptive Thinking, автономная функция, которая работает без участия пользователя и прозрачности. Anthropic предлагает мало ясности относительно того, как эта новая система функционирует, когда она активируется и какие параметры она учитывает. Пользователи теперь сталкиваются с «черным ящиком», неспособные влиять или даже понимать внутренние фазы рассуждений модели.

Для сложных, многоэтапных задач — таких как agentic coding или enterprise-grade reasoning — способность направлять мыслительный процесс модели оказывается незаменимой. Потеря этого прямого user control ощущается как существенное ухудшение, подрывающее предсказуемость и надежность, необходимые для критически важных рабочих процессов. Это изменение вынуждает пользователей уступать контроль непрозрачной, автоматизированной системе.

Отзывы пользователей немедленно выявили повсеместное разочарование по поводу потери ценного инструмента. Многие профессионалы полагались на переключатель 'Extended Thinking', чтобы предотвратить поверхностные ответы и обеспечить всесторонний анализ. Переход к неконтролируемой системе 'Adaptive Thinking' оставил многих чувствовать себя бесправными, ставя под сомнение приверженность Anthropic пользовательскому контролю в продвинутых взаимодействиях с ИИ.

Прямой разбор Мэттью Бермана

Прямая трансляция Мэттью Бермана, провокационно названная «Проверяем, отстой ли Opus 4.7», предложила суровую, реальную оценку новейшей флагманской модели Anthropic. Как влиятельный голос для prompt engineers и разработчиков ИИ, разбор Бермана быстро выявил критические расхождения между обещаниями Anthropic и фактической производительностью Opus 4.7. Его тщательное тестирование предоставило ощутимые доказательства регрессий модели.

Прямые демонстрации Бермана неоднократно выявляли трудности Opus 4.7 с long-context retrieval, что перекликается с тревожным падением в MRCR benchmark. Он представил конкретные запросы, где модель либо галлюцинировала, либо полностью не смогла вспомнить информацию из более ранней части разговора — задачу, с которой ее предшественник, Opus 4.6, справлялся гораздо надежнее. Это напрямую подрывало заявления о «enterprise-grade reasoning» для сложных, многоэтапных операций.

Его экспертное мнение подчеркнуло сниженную practical utility Opus 4.7 для его аудитории. Берман, чьи ресурсы включают «Download The Subtle Art of Not Giving a F*ck of Not Giving a F*ck» и «Download Humanity's Last Prompt Engineering Guide», подчеркнул, что непредсказуемая обработка контекста делает модель ненадежной для профессиональной разработки ИИ. Он отметил, что хотя Anthropic рекламировала улучшения в agentic coding и advanced vision, эти функции становятся в значительной степени неактуальными, если модель не может поддерживать связное понимание на протяжении длительных взаимодействий.

Выводы Бермана глубоко перекликаются с общими настроениями пользователей в сети. Многочисленные сообщения от сообщества разработчиков подтверждают его наблюдения о нестабильной производительности и заметном ухудшении основных возможностей. Это широко распространенное недовольство усиливается из-за скрытого роста затрат; новый токенизатор фактически увеличивает реальные расходы до 35% для идентичных входных данных, усугубляя разочарование по поводу снижения эффективности.

Удаление управляемого пользователем переключателя 'Extended Thinking' еще больше усилило опасения Бермана, указывая на отсутствие прозрачности и пользовательской свободы действий. Его публичный разбор в прямом эфире послужил важнейшим общественным аудитом, укрепив мнение о том, что Opus 4.7, несмотря на официальные заявления, представляет собой значительный шаг назад для многих критически важных приложений. Для получения более подробной информации об официальных объявлениях Anthropic и о том, как получить доступ к модели, читатели могут обратиться к таким ресурсам, как Anthropic releases Claude Opus 4.7: How to try it, benchmarks, safety | Mashable.

Когда хороший код становится плохим

Быстро появились сообщения, подробно описывающие чрезмерно осторожный Claude Code в Opus 4.7, который часто помечал безобидные фрагменты как вредоносные. Эта агрессивная политика безопасности немедленно вызвала обеспокоенность среди разработчиков, полагающихся на обещания Anthropic о продвинутом agentic coding. Чрезмерная бдительность модели оказалась скорее препятствием, чем помощью.

Разработчики поделились многочисленными случаями, когда простой, безобидный код вызывал предупреждения. Базовые функции Python для работы с файлами, обычные служебные скрипты или даже импорт стандартных библиотек иногда получали предупреждения о «вредоносном ПО» или «риске безопасности», несмотря на то, что были совершенно безопасны. Это создало разочаровывающий и неэффективный пользовательский опыт.

Этот постоянный поток ложных срабатываний серьезно подрывает доверие разработчиков к Opus 4.7 как к надежному помощнику в кодировании. Каждое неверное срабатывание требует ручной проверки и отмены, нарушая эффективные рабочие процессы и сводя на нет те преимущества в производительности, которые должны обеспечивать инструменты AI-кодирования. Инженеры не могут уверенно делегировать задачи чрезмерно подозрительному ИИ.

Для корпоративных пользователей, где целостность и безопасность кода имеют первостепенное значение, эта ненадежность представляет собой серьезное препятствие. Интеграция модели, которая часто ошибочно идентифицирует безвредный код, создает неприемлемые трения и потенциальные задержки в критических циклах разработки. Стоимость ложных срабатываний быстро перевешивает любую предполагаемую выгоду.

Отраслевые эксперты предполагают, что чрезмерная чувствительность Opus 4.7 проистекает из агрессивных обновлений его протоколов выравнивания безопасности. Anthropic, возможно, значительно ужесточила меры безопасности, чтобы предотвратить любое потенциальное неправомерное использование или генерацию вредоносного кода, непреднамеренно создав систему, склонную к чрезмерной осторожности. Этот компромисс поставил безопасность выше практической полезности.

Баланс между надежной безопасностью и практической полезностью остается критической задачей для всех разработчиков больших языковых моделей. Проблемы кодирования Opus 4.7 подчеркивают тонкую грань между предотвращением действительно вредоносных результатов и подавлением законной разработки с помощью чрезмерно ограничительного, осторожного подхода. Текущая реализация слишком сильно склоняется к последнему.

Публичный разбор Мэтью Бермана в прямом эфире, вероятно, выявил эти значительные проблемы с кодированием, добавив еще один слой к его провокационной оценке «отстой». Неспособность модели точно отличать безопасный код от небезопасного снижает ее ценность, особенно для ее хваленых функций agentic coding, которые требуют доверия и точности.

Бенчмаркинг против призраков

Иллюстрация: Бенчмаркинг против призраков
Иллюстрация: Бенчмаркинг против призраков

Постоянная тактика Anthropic по сравнению Opus 4.7 с его невыпущенной моделью 'Mythos' все больше разочаровывает сообщество ИИ. Этот гипотетический конкурент, постоянно маячащий на горизонте, служит скорее маркетинговым фантомом, чем ощутимым мерилом, заставляя как пользователей, так и разработчиков сомневаться в актуальности таких сравнений. Эта стратегия кажется не столько демонстрацией текущего мастерства, сколько преднамеренным отвлечением от непосредственных, наблюдаемых проблем производительности Opus 4.7.

Вместо того чтобы демонстрировать возможности Opus 4.7 в сравнении с реальными, грозными конкурентами, такими как GPT-5.4 или Gemini 1.5 Pro, Anthropic постоянно указывает на будущий, непроверенный идеал. Эта практика обходит стороной важнейшие, реальные оценки, что чрезвычайно затрудняет для предприятий и разработчиков точную оценку истинного конкурентного положения Opus 4.7. Объективные сравнения с доступными лидерами рынка становятся практически невозможными без официальных, прозрачных данных.

Этот маркетинговый подход активно подрывает доверие. Сравнение с моделью-призраком предполагает либо нежелание прямо противостоять текущей конкуренции, либо, возможно, неявное признание того, что Opus 4.7 испытывает трудности в прямых, объективных сравнениях. Такая тактика вынуждает потенциальных пользователей спекулировать об истинной ценности модели, вместо того чтобы полагаться на проверяемые, прямые показатели производительности, критически важные для высокорисковых интеграций ИИ.

Отрасль требует большей прозрачности и подотчетности. Anthropic должна перейти к открытому сравнению Opus 4.7 с существующими лидерами рынка, предоставляя конкретные, сопоставимые данные, которые действительно информируют о решениях по покупке и разработке. Выход за пределы миража 'Mythos' имеет решающее значение для восстановления доверия сообщества и создания среды честных, конкурентных инноваций, где модели оцениваются по тому, что они предоставляют сегодня, а не по тому, что они обещают завтра.

Вердикт: Является ли Opus 4.7 шагом назад?

Opus 4.7 от Anthropic представляет собой резкую дихотомию: рекламируемые достижения против задокументированных регрессий. В то время как Anthropic заявляла о значительных успехах в агентном кодировании, продвинутом зрении и рассуждениях корпоративного уровня, модель также внесла критические недостатки, которые ставят под сомнение ее общую полезность. Это не просто обновление; это сложная переприоритизация возможностей.

Действительно ли Opus 4.7 «отстой»? Не совсем, но он, безусловно, разочаровывает в ключевых областях. Катастрофическое падение производительности извлечения данных из длинного контекста, о чем свидетельствует снижение показателя MRCR benchmark с 78,3% в Opus 4.6, представляет собой серьезную регрессию для многих пользователей. Кроме того, влияние нового токенизатора, увеличивающее эффективные затраты до 35%, добавляет неожиданное финансовое бремя.

Удаление пользовательского переключателя 'Extended Thinking' и сообщения о том, что Claude Code проявляет чрезмерную осторожность с ложными срабатываниями, еще больше усложняют картину. Прямой разбор Matthew Berman и отзывы сообщества постоянно подчеркивают эти проблемы, рисуя портрет обновления со значительными компромиссами.

Рекомендации для пользователей неоднозначны: - Обновить: Разработчикам или предприятиям, отдающим приоритет новым возможностям агентного кодирования и продвинутого зрения, где Opus 4.7 демонстрирует ощутимые преимущества, следует рассмотреть это. - Подождать: Пользователям, сильно зависящим от long-context retrieval или чувствительным к возросшим эффективным затратам, следует воздержаться. - Избегать: Если ваш рабочий процесс зависит от функции 'Extended Thinking' или если ваши приложения критически страдают от сообщаемой осторожности Claude Code, Opus 4.7 может быть понижением.

Прогресс в AI редко бывает линейным. Opus 4.7 подчеркивает эту реальность, демонстрируя, что новые функции могут появляться наряду со значительными, а иногда и необъяснимыми регрессиями. Хотя Opus 4.7 общедоступен на различных платформах, включая Claude Opus 4.7 on Vertex AI | Google Cloud Blog, пользователям необходимо тщательно оценивать его конкретные сильные стороны в сравнении с его значительными недостатками перед развертыванием. Продолжающееся бенчмаркинг Anthropic против их невыпущенной модели 'Mythos' только усиливает усталость и неопределенность сообщества относительно истинного состояния их текущих предложений.

Anthropic на распутье

Anthropic ориентируется в гиперконкурентной среде AI, где такие конкуренты, как OpenAI и Google, продвигают агрессивные циклы выпуска. Эта напряженная среда усиливает каждую ошибку, оказывая огромное давление на компанию, чтобы она внедряла инновации, одновременно поддерживая надежность и доверие пользователей — тонкий баланс, который Opus 4.7 явно не смог достичь, рискуя своим положением на жестко оспариваемом рынке.

Обещанные улучшения в агентском кодировании и продвинутом зрении появились наряду с тревожными регрессиями, влияющими на основную функциональность. Катастрофическое падение в MRCR benchmark для извлечения длинного контекста прямо противоречило нарративу о прогрессе. Кроме того, новый токенизатор фактически увеличил операционные расходы до 35% для того же ввода, создавая скрытую финансовую нагрузку для корпоративных пользователей и разработчиков.

Удаление управляемого пользователем переключателя "Extended Thinking", замена его непрозрачной функцией "Adaptive Thinking" еще больше подорвало доверие пользователей. Это изменение ограничило детальный контроль и способствовало сообщениям о том, что Claude Code на Opus 4.7 был чрезмерно осторожным и склонным к ложным срабатываниям. Усталость сообщества от постоянного бенчмаркинга Anthropic против их невыпущенной модели "Mythos" также подчеркивает растущий спрос на прозрачность вместо амбициозных сравнений.

Чтобы вернуть доверие, Anthropic должна уделять приоритетное внимание стабильности и прозрачности. Устранение основных регрессий, особенно сбоев контекста и скрытого увеличения затрат, имеет первостепенное значение. Восстановление пользовательского контроля над поведением модели и предоставление четких, действенных дорожных карт, а не расплывчатых бенчмарков, будет сигнализировать о возобновлении приверженности своей пользовательской базе. Будущие выпуски должны демонстрировать ощутимые улучшения в реальных сценариях.

Этот эпизод служит суровым уроком для всей индустрии AI. Маркетинговая шумиха и внутренние бенчмарки мало что значат, когда демонстрируемая, последовательная производительность в реальном мире дает сбой. Прозрачность в разработке, честное общение об ограничениях и неустанное внимание к надежности должны предшествовать громким заявлениям о будущих возможностях. Провокационный заголовок Мэттью Бермана "Seeing if Opus 4.7 sucks", к сожалению, оказался пророческим, подчеркивая срочное требование сообщества к непредвзятой правде.

Часто задаваемые вопросы

Каковы основные новые функции Claude Opus 4.7?

Anthropic утверждает, что Opus 4.7 обладает улучшенной производительностью в агентском кодировании, значительно лучшими возможностями зрения для анализа сложных документов и улучшенным рассуждением для профессиональных задач, таких как финансовый анализ.

Каковы основные критические замечания в адрес Opus 4.7?

Основные критические замечания включают серьезное падение производительности извлечения длинного контекста, новый токенизатор, который увеличивает затраты до 35%, удаление пользовательских элементов управления, таких как 'Extended Thinking', и чрезмерно чувствительный интерпретатор кода.

Стоит ли мне обновляться до Claude Opus 4.7?

Это зависит от вашего сценария использования. Если вам нужно передовое зрение или агентное кодирование, возможно, стоит протестировать. Однако, если вы полагаетесь на извлечение из длинного контекста или предсказуемые затраты, возможно, вам стоит пока придерживаться предыдущей версии или конкурента.

Кто такой Matthew Berman?

Matthew Berman — эксперт по ИИ и создатель бренда 'Forward Future'. Он известен тем, что предоставляет критические, без хайпа обзоры и практические руководства по новым инструментам и моделям ИИ.

Часто задаваемые вопросы

'Adaptive Thinking': Особенность или недостаток?
See article for details.
Вердикт: Является ли Opus 4.7 шагом назад?
Opus 4.7 от Anthropic представляет собой резкую дихотомию: рекламируемые достижения против задокументированных регрессий. В то время как Anthropic заявляла о значительных успехах в агентном кодировании, продвинутом зрении и рассуждениях корпоративного уровня, модель также внесла критические недостатки, которые ставят под сомнение ее общую полезность. Это не просто обновление; это сложная переприоритизация возможностей.
Каковы основные новые функции Claude Opus 4.7?
Anthropic утверждает, что Opus 4.7 обладает улучшенной производительностью в агентском кодировании, значительно лучшими возможностями зрения для анализа сложных документов и улучшенным рассуждением для профессиональных задач, таких как финансовый анализ.
Каковы основные критические замечания в адрес Opus 4.7?
Основные критические замечания включают серьезное падение производительности извлечения длинного контекста, новый токенизатор, который увеличивает затраты до 35%, удаление пользовательских элементов управления, таких как 'Extended Thinking', и чрезмерно чувствительный интерпретатор кода.
Стоит ли мне обновляться до Claude Opus 4.7?
Это зависит от вашего сценария использования. Если вам нужно передовое зрение или агентное кодирование, возможно, стоит протестировать. Однако, если вы полагаетесь на извлечение из длинного контекста или предсказуемые затраты, возможно, вам стоит пока придерживаться предыдущей версии или конкурента.
Кто такой Matthew Berman?
Matthew Berman — эксперт по ИИ и создатель бренда 'Forward Future'. Он известен тем, что предоставляет критические, без хайпа обзоры и практические руководства по новым инструментам и моделям ИИ.
🚀Узнать больше

Будьте в курсе трендов ИИ

Откройте лучшие инструменты ИИ, агенты и MCP-серверы от Stork.AI.

Все статьи