TL;DR / Key Takeaways
Сэм Олтман нажимает кнопку тревоги
Код Красный ударил по OpenAI, как пожарная сигнализация в дата-центре. Сэм Альтман сообщил сотрудникам, что компания переходит на «код красный», ярлык, обычно резервируемый для экзистенциальных угроз, и приказал командам сосредоточиться на одной цели: сделать ChatGPT значительно лучше, быстрее. Побочные проекты, экспериментальные функции и смелые ставки внезапно отошли на второй план, уступив место укреплению основного чат-бота, который сделал OpenAI известным во всем мире.
Gemini 3 от Google создал момент кризиса. После неудачного запуска первого поколения Gemini, Gemini 3 стал жестким опровержением нарратива о том, что «масштабирование завершено», продемонстрировав уровень производительности на границе возможностей и быстро вышел в огромные каналы распространения Google. Google тихо увеличил число активных пользователей Gemini с примерно 450 миллионов до около 650 миллионов всего за несколько месяцев, в то время как рост OpenAI, который держался около миллиарда пользователей, наконец-то начал выглядеть слишком человеческим, а не неизбежным.
Gemini 3 сделал больше, чем просто выиграл бенчмарки; он изменил сюжет. Впервые OpenAI выглядела как самодовольный гигант, а Google – как голодный соперник, поддерживаемый своим парком TPU и многолетней инфраструктурной работой. SemiAnalysis сообщила, что OpenAI не завершила успешный, широко развернутый полный предобучающий процесс для новой модели с тех пор, как в мае 2024 года была представлена GPT-4.0, в то время как Google масштабировала огромные модели на кастомном кремнии.
Меморандум Код Красный, написанный Алтманом, по сообщениям, сосредоточился меньше на IQ и больше на опыте. Он призвал команды улучшить персонализацию, скорость, надежность и диапазон вопросов, на которые ChatGPT может уверенно отвечать каждый день. Внутри компании приоритет сместился от эффектных демонстраций к непривлекательной инфраструктуре, которая определяет, останутся ли люди с чат-ботом в качестве средства по умолчанию.
Этот поворот сигнализирует о тихом, но глубоком изменении стратегии. На протяжении многих лет OpenAI гонялась за громкими характеристиками: мультимодальность, агенты, голос, магазины приложений, яркие ключевые выступления. Под кодом «Красный код» мандат выглядит ближе к классической защите платформы: - Сделать ChatGPT быстрее, чем Gemini 3 - Сделать его более индивидуализированным, чем Gemini 3 - Сделать его менее сбойным, чем Gemini 3
OpenAI больше не просто пытается изобрести будущее ИИ. Код Красный сигнализирует о том, что компания внезапно вынуждена защищать настоящее.
Ересь «Масштабирование мертво»
Масштабирование ереси началось как шепот и закалилось в догму. За последний год Илья Сутскевер, Андрей Карпати и Ян Лекун все утверждали, что простое увеличение числа GPU и токенов в существующих архитектурах LLM привело к убывающей отдаче. Больше уже не означало умнее; это просто означало дороже.
Исследователи указали на предполагаемую "стену" в предварительном обучении. Как только модели достигли уровня класса GPT-4, каждый дополнительный доллар вычислительных мощностей, казалось, приносил меньше возможностей, особенно в сложных задачах reasoning и планирования. Новый консенсус: теперь для прогресса требуются новые алгоритмы, новые архитектуры и, возможно, совершенно иные парадигмы обучения.
Сутскевер изложил это как эпохальное изменение в подкасте Дваркеша Пателя: 2012–2020 годы — это «эпоха исследований», 2020–2025 годы — «эпоха масштабирования», а теперь происходит возвращение к исследованиям, поскольку увеличение вычислительных мощностей в 100 раз не приведет к созданию в 100 раз лучших моделей. Карпати повторил мысль о том, что современные большие языковые модели «исчерпали пространство для роста». Лекун пошел дальше, назвав авторегрессионные текстовые модели мертвым концом и призывая к энергетическим и мировым моделям.
Этот нарратив окреп внутри лабораторий и на X, где мемы утверждают, что «масштабирование завершено» — это стало общим местом. Когда ведущие фигуры заявляют, что больше данных и больший объем вычислений больше не приводят к значительным результатам, организации прекращают делать ставку на грубое масштабирование. Они перенаправляют бюджеты с массовых тренировочных запусков на безопасность, инструменты и более мелкие, специализированные системы.
SemiAnalysis сообщило, что OpenAI не удалось успешно завершить полноценный预培训ный запуск для широко развернутой модели нового фронтира с момента появления GPT-4.0 в мае 2024 года — более 18 месяцев назад. Внутри компании это выглядело как эмпирическое доказательство стенки: обучение стало более сложным, ошибки более катастрофическими, а инфраструктурные ограничения более жесткими.
Google тихо не согласился. Пока конкуренты говорили о потолках, Google вкладывал деньги в свой парк TPUv5, высокоскоростные коннекторы и каналы данных, настроенные специально для огромных многотриллионных смесей параметров. Gemini 3 появился как грубый контраргумент: масштабирование, выполненное правильно, все еще работает.
Это несоответствие в убеждениях создало слепую зону. Конкуренты считали, что все столкнулись с одной и той же преградой; Google знал, что только что перепрыгнул через свою. Когда Gemini 3 начал обгонять OpenAI по ключевым рубежам в кодировании и логическом мышлении, нарратив о том, что «масштабирование мертво», перестал выглядеть как мудрость и начал выглядеть как саморазрушение.
Гемини от Google разрушает стену
Gemini 3 разрушил миф о том, что «масштабирование умерло», сделав то, что скептики считали невозможным: кардинально улучшившись за счет значительного роста. Флагманская модель Google превзошла системы класса GPT-4 по множеству публичных бенчмарков — от программирования и математики до многомодального мышления, и сделала это, работая интерактивно с задержками, удобными для пользователей. Для разработчиков, которые рассматривали Gemini 1 и 1.5 как небольшие улучшения, Gemini 3 наконец-то показалась настоящим скачком в следующую генерацию.
Под капотом Gemini 3 использует вертикально интегрированный AI-стек Google: кастомные TPU-силикон, гипермасштабные дата-центры и обучающую цепочку, настроенную на протяжении почти десятилетия. SemiAnalysis сообщает, что хотя OpenAI не провел полностью развернутый предобучающий запуск с мая 2024 года, когда вышел GPT-4.0, Google продолжает проводить все более масштабные обучающие запуски с использованием своего парка TPU. Эта преемственность важна, потому что законы масштабирования приносят плоды только в том случае, если вы действительно можете продолжать масштабироваться.
TPU v5 от Google и новые поколения v6/v7 предоставляют преимущества в стоимости и производительности, с которыми стандартные GPU не могут сравниться. TPU объединяют высокоскоростную память, межсистемные соединения и матричные блоки в одном решении, созданном специально для задач трансформерного типа, что снижает потребление энергии и сетевые накладные расходы. Когда вы можете соединить сотни тысяч этих чипов в плотно связанных модулях, фраза "просто добавьте вычислительные мощности" перестает быть мемом и становится дорожной картой.
Стратегически это кремниевое преимущество позволяет Google проводить больше экспериментов, дольше обучать модели и использовать более крупные контекстные окна, не сжигая деньги. Огромная конфигурация Gemini 3 с множественными специалистами — маршрутизация токенов через специализированные подсети — требует огромных объемов межчиповой коммуникации. TPU, разработанные в тесном сотрудничестве с программным обеспечением Google, делают это возможным в производственных масштабах.
Реакция рынка была быстрой. Google утверждает, что использование Gemini увеличилось с примерно 450 миллионов до 650 миллионов активных пользователей за считанные месяцы, в основном благодаря Gemini Advanced и Gemini для Workspace. Впервые разработчики, которые по умолчанию использовали OpenAI, начали серьезно переносить агентов, копилотов и чат-ботов в экосистему Google AI.
Этот сдвиг отражается в инструментах. Теперь клиенты облака видят варианты Gemini 3, интегрированные в Vertex AI, Google Docs, Gmail, Android и Chrome, превращая выбор модели в стандартную настройку, а не в исследовательский проект. Для стартапов, следящих за горением средств, более дешевая инференция на TPU вместе с конкурентоспособным качеством делает Gemini 3 легким A/B тестом против GPT-4.1.
Инвесторы и конкуренты заметили это. Публикации, такие как Объявление Самом Алтманом 'код красный' для улучшения ChatGPT на фоне угрозы со стороны Google в лидировании в ИИ, представили Gemini 3 как первую настоящую угрозу культурному и техническому господству ChatGPT. Внутренняя записка «код красный» Сэма Алтмана просто подтвердила то, что уже подразумевали тестовые показатели: Google успешно проложил путь прямо через стену, которую все остальные считали непроходимой.
Внутри суматохи общего собрания OpenAI
Код красный в OpenAI не означает учения по тушению пожаров и слоганы; это означает кардинальную переоценку приоритетов. Согласно отчетам Wall Street Journal и внутренним меморандумам, Сэм Альтман распорядился остановить все, что не делает ChatGPT быстрее, надежнее или более притягательным в использовании каждый день.
Проекты, которые когда-то казались следующими прибыльными источниками для OpenAI, внезапно приостановлены. Работы над экспериментальной рекламой, интеграциями для покупок и легкими корпоративными ставками были приостановлены или замедлены, чтобы инженеры и исследователи могли вернуться к основному модельному стеку.
Менеджеры по продукту, которые провели прошлый год, разрабатывая «родные для ИИ» инструменты продуктивности, теперь отвечают на более простую задачу: защищать число активных пользователей. Это значит меньше экспериментов с сопредельными приложениями и больше сосредоточенной работы над задержкой, временем безотказной работы и ограничениями флагманского чата OpenAI.
Сообщается, что Альтман сказал сотрудникам, что "повседневный опыт" ChatGPT отстает от необходимых показателей, особенно с учетом того, что Google Gemini 3 сокращает разрыв. Поэтому улучшение производительности стало новой стратегией роста: сокращение времени отклика на сотни миллисекунд, укрепление инфраструктуры и оптимизация подсказок и маршрутизации, чтобы пользователи по умолчанию подключались к лучшему пути модели.
Персонализация находится в центре этого спринта. Команды стремятся углубить профили пользователей, запомнить больше контекста между сессиями и адаптировать тон и формат, чтобы ChatGPT ощущался не как универсальный помощник, а скорее как индивидуальный AI-спутник, который понимает ваши привычки, документы и рабочие процессы.
Внутри компании инженеры описывают «всеобщее» перестроение, которое напоминает военное положение. Исследователи, занимающиеся долгосрочными идеями, были переведены на задачи по краткосрочным улучшениям надежности рассуждений, использованию многоступенчатых инструментов и снижению количества «Я не могу помочь с этим» тупиков.
Метрики изменились соответствующим образом. Вместо того чтобы отмечать эффектные демонстрации, руководство теперь отслеживает: - Ежедневное и еженедельное количество активных пользователей - Длительность сессии и выполненные задачи - Показатели отсева, когда ChatGPT отвечает неверно или слишком медленно
Код красный на практике означает, что OpenAI рассматривает каждый нестабильный ответ, медленный ответ или нерелевантный отзыв как экзистенциальную ошибку. С Garlic на подходе компания хочет уверенный запас лояльной и вовлечённой пользовательской базы, прежде чем представить то, что будет следующим.
Представляем "Чеснок": Убийца близнецов
Чеснок — это кодовое название, которое вы выбираете, когда пытаетесь отогнать что-то пугающее. Согласно подробному материалу от The Information, OpenAI тихо начала обучение "Чесноку" этой осенью как своей первой настоящей моделью пост-GPT-4, явно обозначенной внутри компании как ответ на всплеск Google Gemini 3 и достижения в масштабировании на базе TPU. По сообщениям, Марк Чен, главный исследователь OpenAI, сказал сотрудникам, что Чеснок теперь является главным приоритетом компании в области исследований.
Вместо того чтобы гнаться за размером ради самого размера, Garlic нацеливается на конкретные узкие места в предварительном обучении, которые только что преодолел Gemini. Google доказал, что можно масштабироваться, если ваша вычислительная платформа достаточно жесткая; OpenAI ставит на то, что эту разницу можно устранить с помощью более умных рецептов предварительного обучения: более эффективной кураторской работы с данными, обучения по типу учебного плана и агрессивной маршрутизации смеси экспертов, чтобы контролировать расходы. Внутренние документы, на которые ссылается The Information, описывают Garlic как “вычисления класса GPT-4.5, эффективность класса Gemini-3.”
Где Gemini 3 демонстрировал высокие результаты по веб-бenchmarkам и многомодальным задачам, Garlic, как сообщается, фокусируется на высокоценных нагрузках: программировании, долгосрочном мышлении и использовании инструментов. В внутреннем наборе инструментов кодирования OpenAI — значительно ориентированном на рефакторинг нескольких файлов и агентные рабочие процессы — Garlic уже обходит Gemini 3 Pro и Opus 4.5 от Anthropic на ранних этапах, несмотря на то, что еще не прошел полное обучение. Один внутренний график, представленный исследователям, показал, что Garlic опережает на несколько процентных пунктов по метрикам pass@1 в кодировании при сопоставимой температуре.
Бenchmark'и по рассуждениям рассказывают аналогичную историю. Сообщается, что Garlic опережает Gemini 3 и Opus 4.5 в частном тесте OpenAI на математику и логику, включая синтетические задачи с цепочкой рассуждений, разработанные для наказания поверхностного обнаружения паттернов. Сотрудники, увидевшие цифры, описали Garlic как «комфортно впереди GPT-4.1» и «ведущим борьбу с Gemini 3 Ultra» по сложным многошаговым задачам, даже до финальных этапов обучения и проходов через обучение с подкреплением.
С архитектурной точки зрения Garlic выглядит как эволюция, а не перезагрузка. Люди, знакомые с работой, описывают основу в стиле GPT-4.1 с большей разреженностью, улучшенными механизмами извлечения данных и более тесной интеграцией со стеком вызова инструментов OpenAI. Цель: создать модель, которая может служить основным разумом для агентов, рабочих процессов в стиле поиска и кодовых копилотов без пиков задержки, которые мучают сегодняшние крупнейшие системы.
Нейминг — это место, где начинается спекуляция. Внутри компания называет проект «Чеснок», но, по данным, руководители обсуждают, стоит ли представить его как GPT-5.2 — тихое, но резкое обновление — или брендировать как GPT-5.5 и представить его как полный ответ компании на Gemini 3. Предполагаемые сроки в OpenAI указывают на агрессивный график: поэтапный выпуск для корпоративных клиентов в четвертом квартале и широкая доступность к концу года, если обучение и оценки безопасности будут проходить по плану.
Возвращение к жестоким границам предобучения
Мышечная память снова стала стратегическим активом в OpenAI. Главный научный сотрудник Марк Чен, по сообщениям, сказал сотрудникам, что компания позволила своей экспертизе в области предварительного обучения атрофироваться, пока преследовала обучение с подкреплением на основе человеческой обратной связи, работу по обеспечению безопасности и эффектные функции продуктов — и эта эпоха теперь завершилась. В рамках Code Red предварительное обучение перешло из фона на главную сцену.
По данным SemiAnalysis, примерно в течение 18 месяцев после завершения обучения GPT-4o в мае 2024 года OpenAI не проводила новую полномасштабную предобучающую модель, которая бы была широко выпущена. Этот промежуток совпал с переходом к RLHF, использованию инструментов и продуктам: ChatGPT, голосовым режимам, агентам и корпоративным функциям. Эти ставки принесли пользователей и доход, но они также притупили основную компетенцию в то время, как Google доказала, что просто масштабирование по-прежнему повышает планку.
Теперь OpenAI восстанавливает эту мышцу с почти старомодным, «лаборатория на грани 2020 года» подходом. Чен охарактеризовал предобучение как самую сложную и богатую возможностями часть процесса, а Code Red предоставляет ему политическую поддержку для соответствующего найма. Внутри компании руководители говорят о создании «команды суперзвёзд» из системных инженеров, специалистов по оптимизации и экспертов по данным, чья единственная задача — добиться ещё одного порядкового увеличения.
Логика проста и безжалостна: кто владеет эффективностью предварительного обучения, тот и владеет передовым краем. OpenAI считает, что их секретное оружие находится в местах, которые посторонним не так легко увидеть — рецепты кураторства данных, расписания учебных планов, настройки оптимизаторов, маршрутизация микса экспертов и трюки по выравниванию времени обучения. Именно эти параметры определяют, приведет ли $1 вычислительных ресурсов к скромному приросту или к прыжку уровня Gemini 3.
Руководители также считают, что рынок неправильно интерпретирует их молчание как стагнацию. В то время как Google демонстрирует TPUv7 и количество параметров, OpenAI делает ставку на менее очевидные преимущества: лучшее масштабирование потерь в режимах с триллионом токенов, более плотная упаковка знаний в меньших моделях и архитектуры, которые выдерживают катастрофические провалы в обучении. На внутренних брифингах по проекту Garlic Чен указывает сотрудникам на такие отчеты, как OpenAI Разрабатывает Модель 'Garlic' для Противодействия Недавним Достижениям Google как на публичный верх гораздо большего айсберга.
Код Красный, на практике, означает перераспределение вычислительных ресурсов, отмену побочных проектов и наемную воронку, которая направляет лучших кандидатов сразу в предтренинг. Если Garlic успешно выйдет и оправдает внутренние ожидания, OpenAI хочет, чтобы индустрия заново усвоила старый урок: уловки согласования и полировка пользовательского опыта важны, но настоящая защита все равно начинается с первого токена корпуса.
Умнее недостаточно: война за пользовательский опыт
Внутренняя записка Сэма Олтмана, по сообщениям, акцентировала внимание на простом факте: для «99% пользователей» повседневный опыт важнее, чем абстрактные баллы IQ на графике benchmark. Это жесткое переосмысление гонки вооружений на передовом фронте. Если Gemini 3 и Garlic в целом взаимозаменяемы для большинства запросов, тот, кто сделает взаимодействие более плавным, быстрым и личным, выйдет победителем.
Для типичных пользователей, запрашивающих черновики электронных писем, резюме или фрагменты кода, сегодняшние большие языковые модели уже кажутся «достаточно умными». Им не нужен теоремный доказыватель на уровне PhD; им нужен ассистент, который не зависает, не сбоит и не забывает контекст. Непрерывные улучшения в рассуждениях важны гораздо меньше, чем то, кажется ли ChatGPT, Gemini или Claude надежным инструментом, а не капризным гением.
Это смещает центр внимания на каркас: всё, что окружает основную модель. Как сообщается, Алтман выделил: - Функции персонализации - Скорость - Надежность - Более широкий охват вопросов
Это проблемы продуктов, а не просто проблемы исследований, и они определяют, на какую иконку пользователи нажимают 20 раз в день.
Скорость становится важной характеристикой пользовательского опыта наравне с точностью. Google хвалит отзывчивость Gemini 3 на своем стеке TPUv7; OpenAI необходимо, чтобы Garlic и его инфраструктура обслуживания соответствовали или превышали эту задержку, особенно на мобильных устройствах. Разница в 400 миллисекунд во времени ответа может определить, будет ли помощник казаться мгновенным или медленным.
Надежность глубже, чем просто время безотказной работы. Пользователи хотят меньше тупиков с фразой "Я не могу помочь с этим", меньше вымышленных ссылок и стабильного поведения на веб-сайте, компьютере и телефоне. Google утверждает, что у них 650 миллионов пользователей Gemini; OpenAI близок к 1 миллиарду для ChatGPT. На таком уровне одна серьезная авария или неисправная функция могут повлиять на классы, офисы и колл-центры.
Персонализация — это следующий стратегический козырь. Тот, кто превратит обычный чат-бот в постоянного, осознающего контекст агента, способного запоминать предпочтения, проекты и стиль, выиграет войну за лояльность — задолго до того, как кто-либо заметит, кто вышел вперед в следующем рейтинге MMLU.
Ров: Может ли лояльность к бренду победить распределение?
ChatGPT занимает редкое место среди технологических брендов, имена которых стали глаголами почти мгновенно. Люди «ChatGPT» ищут задачи для домашней работы, письма и код так же, как они «гуглят» вопросы. Эта лексическая закрепленность имеет значение: она закрепляет чат-бот OpenAI в качестве умственного эталона для AI помощников, даже несмотря на то, что конкуренты тихо превосходят его в бенчмарках.
Бренд Gravity сталкивается лоб в лоб с распределительной мощью Google. Google может интегрировать Gemini везде, где пользователи уже находятся: в строке поиска, строке URL Chrome, сайдбарах Docs и пользовательском интерфейсе Android. OpenAI, напротив, в основном представлен в веб-приложении, мобильном приложении и разрозненном экосистеме интеграций API и сторонних оболочек.
Преимущество Google накапливается благодаря стандартным настройкам. Миллиарды людей познакомятся с генеративным ИИ через: - Ответ Gemini над 10 синими ссылками - Панель Gemini в Chrome - Предложение Gemini в Gmail или Docs
Большинство этих пользователей никогда не введут «chatgpt.com» или не сравнят Gemini с GPT-4. Они просто примут то, что подскажет строка поиска или окно для ввода.
У OpenAI, похоже, самый надежный защитный механизм среди ранних пользователей и активных специалистов. Разработчики, исследователи и профессионалы, работающие с ИИ, уже одновременно используют ChatGPT, Claude, Gemini и открытые модели, такие как Llama или Mistral, часто с помощью инструментов "роутеров", которые автоматически выбирают лучшую модель. Для этой аудитории бренд имеет значение, но задержка, длина контекста, использование инструментов и качество рассуждений определяют, какая вкладка остается закрепленной.
Пользователи массового рынка ведут себя иначе. История показывает, что большинство людей придерживаются стандартных настроек, даже когда существуют более эффективные инструменты: Chrome победил Firefox, потому что Google контролировал поиск, а не потому что Firefox стал хуже. Если Gemini станет универсальным помощником в поиске, Android и Chrome, OpenAI должна убедить пользователей искать отдельное приложение для немного лучших ответов.
Ставка Сэма Алтмана на "повседневный опыт" неявно признает этот раскол. Активация пользователей будет стремиться к лучшей модели; все остальные остановятся на том, что кажется быстрым, знакомым и бесплатным. Бренд ChatGPT дает OpenAI время, но дистрибуция Google обеспечивает охват Gemini — а в потребительской технологии охват, как правило, формирует следующее поколение привычек.
Это не дуэль, это королевская битва.
Код Красный в OpenAI звучит как драматический заголовок, но представлять это как чистую дуэль OpenAI и Google упускает суть дела. Искусственный интеллект теперь больше напоминает загруженный титульный экран: OpenAI, Google, Anthropic, Meta, Mistral, Apple, xAI и быстро растущее количество китайских лабораторий и открытых коллективов. Каждый из них оптимизирует чуть иное определение «интеллекта», и эта фрагментация ускоряет темп изменений.
Anthropic активно развивает конституциональный ИИ, предлагая надежность и безопасность в качестве корпоративных функций. Модели Claude 3.5 все чаще появляются в регулируемых отраслях, которые меньше беспокоятся о сырых показателях и больше о возможности аудита, поведении отказа и стабильных API. Их предложение простое: меньше сюрпризов, лучшие рамки, сильное кодирование и логика без брендов Gemini или GPT.
Тем временем Meta превратила Llama в стандартную открытую платформу. Llama 3.1 и его варианты на 8B/70B теперь обеспечивают работу тысяч стартапов, внутренних корпоративных инструментов и экспериментов на устройствах. Meta жертвует лидерством на передовой ради распространения: если разработчики по умолчанию создают на базе Llama, Meta тихо формирует экосистему, даже когда никто не использует ее официальные приложения.
Mistral играет на поле эффективности. Его модели класса 7B–22B превосходят ожидания по пропускной способности и задержке, особенно на торговых GPU. Европейские дата-центры, чувствительные к затратам поставщики SaaS и стремительные стартапы в сфере инфраструктуры все чаще выбирают Mistral, когда качество уровня GPT-4 избыточно, и каждая миллисекунда и доллар имеют значение.
Отдалившись, можно отметить, что «Код Красный» Сэма Олтмана и новое поколение Gemini 3 от Google действуют как катализатор для всех остальных. Как подробно описано в статье Google предпринимала попытку завоевать корону ИИ, экономика TPU и масштабные предварительные запуски сбивают ожидания по масштабированию. Это, в свою очередь, вынуждает Anthropic сосредоточиться на безопасности, Meta - упорно работать над разрешительными лицензиями, а Mistral - стремиться к большей производительности на каждый FLOP.
Пользователи не наблюдают дуэль; они видят царский пир перекрывающихся экосистем. Настоящим победителем может стать возникающее поведение всех этих моделей, запертых в цикле обратной связи конкуренции, подражания и стремления превзойти друг друга.
Почему эта беспощадная борьба — отличные новости для вас
Код красный в OpenAI и заряд, подкрепленный TPU в Google, звучат устрашающе, если вы конкурентная лаборатория. Если вы пользователь, это джекпот. В гонках вооружений в технологиях исторически появляются более совершенные продукты, более быстрая итерация и ожесточенная борьба за снижение цен.
Жесткая конкуренция уже превратила «доступ к LLM» из новшества за $20 в месяц в товар. OpenAI, Google, Anthropic, Meta, Mistral и проекты с открытым исходным кодом теперь конкурируют, чтобы предложить больше контекста, лучшие инструменты и более высокие лимиты использования за те же или меньшие деньги. Корпоративные покупатели тихо надавливают еще сильнее, сокращая стоимость за место и требуя скидок на основе использования.
Качество моделей стремительно растет, когда никто не чувствует себя в безопасности. Gemini 3 заставил OpenAI перейти к Garlic, обновленной инициативе по предобучению после более чем года без значительных прорывов за пределами GPT-4.0. Anthropic ответила на GPT-4 моделью Claude 3.5 и 4.5; Meta продолжает бесплатно выпускать крупные контрольные точки Llama, тем самым поднимая планку для всех.
Ожидайте, что в течение следующих 6–12 месяцев будут появляться не только заголовки «GPT-5 против Gemini 4», но и конкретные обновления, которые пользователи смогут ощутить:
- 1Длинные контекстные окна по умолчанию, а не премиум.
- 2Быстрее время отклика благодаря улучшенным стеком вывода и пользовательскому кремнию
- 3Более мощные инструменты: выполнение кода, серфинг в интернете и работа с файлами, которые действительно работают на большом масштабе.
- 4Повышенная надежность в многопоточных задачах и агентах
Ценовое давление будет усиливаться. Google может субсидировать Gemini за счёт Search и Cloud, в то время как Microsoft может объединить модели OpenAI с 365 и Azure. Эта динамика взаимных субсидий исторически снижала эффективные цены на облачные вычисления и хранение данных; вероятно, она сделает то же самое для токенов, API-вызовов и лицензий на «AI seat».
Пользовательский опыт улучшится, поскольку Сэм Альтман явно сделал «ежедневный опыт» полем битвы. Ожидайте более тщательной персонализации, памяти, которая сохраняется между сессиями, и рабочих процессов, которые выглядят больше как помощники, встроенные в электронную почту, документы и IDE, а не как пустое окно для чата. Бренд ChatGPT сохранит свою привлекательность только в том случае, если продукт будет очевидно лучше каждую неделю.
Самое главное, ни одна лаборатория не может тормозить. Любая задержка в предварительном обучении, оптимизации вывода или улучшении пользовательского опыта становится заголовком и причиной оттока пользователей. Эта срочность означает, что пользователи получают более быстрые циклы итерации, больше экспериментов и постоянный поток функций, которые конкуренты слишком напуганы, чтобы не выпустить.
Часто задаваемые вопросы
Что такое 'Code Red' от OpenAI?
Это внутренняя инициатива, объявленная генеральным директором Сэмом Альтманом, с целью срочного улучшения производительности и ключевых технологий ChatGPT в ответ на угрозу конкуренции со стороны модели Gemini 3 от Google.
Что такое модель ИИ 'Garlic'?
'Чеснок' — это внутреннее кодовое название новой модели ИИ, разрабатываемой компанией OpenAI. Она была разработана специально для противодействия недавним достижениям Google в предварительном обучении и, как сообщается, показывает хорошие результаты против Gemini 3 в внутренних тестах.
Мертво ли масштабирование моделей ИИ?
Хотя некоторые эксперты, включая бывшего соучредителя OpenAI Илью Сутскевера, высказывали мнение, что масштабирование достигает своих пределов, Google Gemini 3 продемонстрировал, что значительные успехи все еще возможны. Руководство OpenAI теперь утверждает, что масштабирование не исчезло и они вновь сосредоточатся на этом.
Почему Google Gemini 3 представляет собой серьезную угрозу для ChatGPT?
Gemini 3 продемонстрировал значительные улучшения в производительности, что указывает на то, что индивидуальная архитектура TPU от Google дает компании ключевое преимущество в масштабировании моделей. Это в сочетании с обширной пользовательской базой и каналами распространения Google представляет собой первый серьезный вызов рыночному лидерству OpenAI.