Code Red от OpenAI: Конец эпохи?

OpenAI объявила «Код Красный», так как Google Gemini вышел на первое место. Мы анализируем ключевые ошибки, приведшие к этому моменту, и что это означает для будущего ИИ.

Hero image for: Code Red от OpenAI: Конец эпохи?
💡

TL;DR / Key Takeaways

OpenAI объявила «Код Красный», так как Google Gemini вышел на первое место. Мы анализируем ключевые ошибки, приведшие к этому моменту, и что это означает для будущего ИИ.

На трон искусственного интеллекта появляется новый претендент.

Код «красный» редко означает, что всё идёт своим чередом. Когда Сам Альтман, как сообщается, произнёс эти слова в OpenAI, это ознаменовало нечто близкое к экзистенциальной тревоге: Gemini от Google больше не было шуткой или побочным проектом, а стало лидером. Сообщение для сотрудников, согласно нескольким отчетам и разговором в отрасли, свелось к простому указанию — догоняйте или оставайтесь позади.

В течение почти двух лет OpenAI оставалась единоличным лидером в области искусственного интеллекта. ChatGPT достиг 100 миллионов пользователей всего за два месяца, изменив продуктовые стратегии крупнейших технологических компаний и заставив Google и Meta принять защитные меры. Теперь, когда преимущества раннего выхода на рынок выглядят неустойчивыми из-за изменений в паттернах использования и появления конкурентов, добивающихся настоящих успехов.

Данные, порождающие эту панику, трудно игнорировать. Аналитики и создатели, отслеживающие трафик и вовлеченность, утверждают, что ежедневные активные пользователи все больше времени проводят в Gemini, чем в ChatGPT, особенно в таких областях, как кодирование, математика и длинное письмо. Параллельно, Claude от Anthropic стал тихим фаворитом для предприятий, которые больше ценят надежность и управление, чем вирусные демонстрации.

Корпоративные соглашения рассказывают похожую историю. Клод заключил знаковые контракты с облачными партнерами и клиентами из списка Fortune 500, которые раньше использовали API от OpenAI. Теперь CIO обсуждают "портфели моделей" так же, как раньше говорили о мульти-облаке — OpenAI для некоторых задач, Anthropic для потоков с сильными требованиями к соблюдению норм, Google для глубокой интеграции с Workspace и поиском.

Момент «красный код» для Алтмана знаменует собой первый случай, когда OpenAI должна реагировать, а не задавать темп. Быстрая итерация Gemini, особенно уровень Ultra, интегрированный в Android, Chrome и Google Docs, предоставляет Google распределение, с которым OpenAI не может соперничать. Каждый Android телефон и почтовый ящик Gmail фактически удваивают доступ к Gemini.

То, что начиналось как соревнование с одним лидером, теперь явно выглядит многополярным. Выделяются три различных центров силы: - OpenAI, все еще культурный стандарт - Google, с ДНК дистрибуции и поиска - Anthropic, с акцентом на безопасность и корпоративные предложения

Красный код, другими словами, это меньше о коллапсе и больше о перезагрузке. Трон ИИ больше не принадлежит одной компании — и впервые OpenAI должна бороться за то, чтобы сохранить своё место.

Тихой переворот Близнецов: Вердикт исследователя

Иллюстрация: Тихой переворот Близнецов: Вердикт исследователя
Иллюстрация: Тихой переворот Близнецов: Вердикт исследователя

Спросите в высококлассных исследовательских лабораториях, и вы услышите похожие истории, но одна аоректная история продолжает всплывать. Постдокторант в области вычислительной гидродинамики, имевший опыт работы в Корпусе инженеров армии США и NASA, тихо переключил свой основной инструмент с GPT на Gemini и больше не оглядывался назад. Его работа находится на передовом фронте моделирования Навье-Стокса для океанов и климата, где "довольно хорошие" инструменты просто не подходят.

Когда ранние модели GPT-3 и GPT-4 от OpenAI появились на рынке, он назвал их «довольно хорошими» для кодирования. Они могли создавать шаблоны скриптов MATLAB, отлаживать Fortran и наметить утилиты для симуляций. Но когда он погрузился в проблемы пограничной турбулентности и сложные производные, они потерпели неудачу: неверные предположения, утрата контекста и поверхностное взаимодействие с реальной физикой.

Его вердикт о Gemini Ultra звучал совершенно иначе. После того как он, наконец, оформил платную подписку, он написал, что Gemini был «намного лучше» того, что он получал от GPT, назвав его «переломным моментом» для своего рабочего процесса. Спустя несколько недель он сообщил, что это «сэкономило мне так много времени в работе» и было «гораздо лучше, чем GPT-5», что на самом деле означало «лучше любого продукта, который OpenAI выпускает прямо сейчас».

Три сильные стороны постоянно проявлялись. Во-первых, Gemini оставался сосредоточенным на сущности разговора на протяжении долгих технических обсуждений — выводов, правок и пограничных случаев — не отклоняясь к лекциям о безопасности или мета-комментариям. В то время как ChatGPT часто останавливался для проверки фактов, словесных оговорок или “на самом деле” пользователя, Gemini продвигал аргумент вперед.

Во-вторых, его навыки академического письма имели значение. Черновики разделов методов, обзоров литературы и стандартных форм для грантов стали ближе к текстам, готовым для публикации в журналах: четкие тематические предложения, правильная терминология и связная структура на 3000–5000 слов. Это сократило часы, затрачиваемые на доработку, которые ранее перекатывались между LaTeX, менеджерами ссылок и электронными письмами.

Третье, Gemini вел себя больше как коллаборатор, чем как инспектор по соблюдению норм. Для опытного пользователя, работающего с решателями PDE, климатическими моделями и ответами рецензентов, это означало меньше прерываний и больше производительности. Именно поэтому Gemini завоевывает популярность среди исследователей, количественных аналитиков и серьезных разработчиков: они готовы пожертвовать некоторой отделкой ради системы, которая просто позволяет выполнять более серьезную работу быстрее.

Смертельный недостаток: 'UX Стукни-Ка-По-Несчастью' ChatGPT

UX «бить молота» описывает то, что происходит, когда команда продукта пытается одновременно удовлетворить всех заинтересованных сторон и в итоге не удовлетворяет никого. ChatGPT стал таким продуктом: единственный интерфейс, растянутый на роль ассистента по исследованиям, корпоративной базы знаний, медицинского триажного бота, научного объяснялки и терапевта, при этом оставаясь безопасным для бренда и защищенным от исков.

OpenAI начала активно нацеливаться на конкретные «корыта» в быстром темпе. Чтобы выиграть сделки с Fortune 500, ChatGPT превратился в юриста по правилам, агрессивно блокируя всё, что хоть чуть-чуть напоминало риск несоответствия. Чтобы избежать заголовков в духе «Доктор Гугл», он трансформировался в цифрового врача, отказываясь обсуждать симптомы на простом языке, если они не соответствовали консервативным медицинским рекомендациям.

Научное использование привнесло еще один уровень ограничений. Теперь ChatGPT сильно полагается на основные доказательства, часто отказываясь даже резюмировать крайние или новые работы, если они не опубликованы в высоко цитируемых журналах, что вызывает недовольство у исследователей, работающих над препринтами, черновиками arXiv или неконвенциональными подходами. Эмоциональная безопасность добавила еще один уровень управления, направляя острые или близкие к беспокойству темы в заранее подготовленные "защита" ответы.

Каждое исправление накладывается на предыдущее, превращая когда-то гибкую систему в лабиринт защитных барьеров. Пользователи сообщают о том, что модель прерывает технические обсуждения, чтобы заново обсудить условия безопасности, или отказывается строить гипотезы, даже когда это явно запрашивается. Такое поведение соответствует собственному подходу OpenAI на официальном сайте OpenAI, где обновления по безопасности и согласованию теперь доминируют в продуктовых сообщениях.

Конкретные эффекты проявляются в различных областях. Разработчик, спрашивающий о классах уязвимостей, получает лекцию о ответственном раскрытии информации ещё до того, как будет обсужден какой-либо код. Пациент, исследующий неофициальные методы лечения, сталкивается с повторяющимися "проконсультируйтесь с вашим врачом" и безуспешными попытками. Климатолог, изучающий информацию за пределами консенсусного языка МГЭИК, получает подсказки вернуться к "авторитетным источникам", даже когда явно существует работа на переднем крае.

Этот цикл UX игры в «козла-отпущения» кардинально меняет восприятие продукта. Ранний ChatGPT ощущался как мощный, слегка безрассудный соратник; текущий ChatGPT воспринимается как навязчивый корпоративный бот, постоянно сомневающийся в том, чего вы «должны» хотеть. Наиболее заметно это изменение для опытных пользователей, потому что они помнят, как тот же интерфейс вёл себя с меньшими ограничениями.

Аленированность проявляется в поведении, а не только в настроении. Интенсивные пользователи переходят к Gemini и Claude для написания текстов, мозговых штурмов и исследовательской работы, при этом оставляя ChatGPT только для узких, низкокреативных задач, где его консерватизм становится преимуществом. Это классическое определение окатившегося основного продукта: всё ещё узнаваемый, всё ещё с брендом, но опустошённый в тех местах, где раньше находилась его оригинальная привлекательность.

Поисковая ДНК Google: Несправедливое Преимущество?

OpenAI ведет себя как стартап, который по-прежнему одержим своим флагманским демо. Google ведет себя как 25-летняя инфраструктурная компания, которая два десятилетия тихо разрешает споры в мире. Эта разница в институциональной muscle memory проявляется каждый раз, когда вы задаете Gemini вопрос, касающийся серых зон.

Основной продукт Google, Поиск, воплощает в себе почти жестокий минимализм: определите намерения, предложите релевантную информацию, уберитесь с дороги. Сотни сигналов ранжирования, данные о кликах из миллиардов запросов каждый день и годы A/B-тестов оптимизируют всё для одной цели — быстрого удовлетворения намерений пользователей. Не для того, чтобы защищать пользователя от информации, не для того, чтобы читать ему лекции об этом.

Эта история создала то, что можно назвать агностическим взглядом Google на информацию. Поиск всегда возвращал результаты по запутанным, неудобным или спорным запросам: синтез цианистого калия, маргинальные форумы о здоровье, порно, блоги теорий заговора. Google выделил узкие жесткие блоки (недетское насилие, прямые инструкции по терроризму), но все остальное в основном течет, ранжируясь по релевантности и авторитетным сигналам, а не по корпоративным предрассудкам.

Гемини наследует эту позицию. Спрашивайте о несанкционированном использовании препаратов, биохакинге или политически спорных темах, и Гемини, как правило, предлагает спектр источников, оговорок и общественного консенсуса, не нажимая на тормоза. У него все еще есть рамки, но оно не рефлексивно переключается на "безопасную" личность или не сглаживает нюансы корпоративной риск-менеджмента.

В отличие от этого, текущий пользовательский опыт ChatGPT часто ощущается как совокупность конкурирующих персонажей соблюдения, борющихся за контроль. Медицинские запросы вызывают голос цифрового врача, корпоративные вопросы призывают юриста по соблюдению правил, а любые эмоционально окрашенные темы рискуют столкнуться с блокировкой безопасности. Пользователи видят уклонения, отказы и порицания там, где ожидали инструменты, ссылки и компромиссы.

Обученные на поиске инстинкты подталкивают Google к новому контракту с пользователем: вы владеете своим намерением, а Gemini отвечает за поиск и обоснование. Это делает модель похожей на мощный инструмент, а не на контролера доступа. Вы получаете структурированные ответы, ссылки и контекст, а не моральный фильтр, который решает, какие части реальности вам можно видеть сегодня.

В мире, где исследователи, клинические специалисты и инженеры уже живут в информационных зарослях, философия Gemini «показывай, а не прячь» лучше соответствует тому, как на самом деле работают серьезные пользователи.

Наемник против Миссионера: Дух OpenAI

Иллюстрация: Наемник против Миссионера: Душа OpenAI
Иллюстрация: Наемник против Миссионера: Душа OpenAI

Силиконовая долина любит аккуратные моральные истории: основатели делятся на наемников и миссионеров. Наемники гонятся за оценкой, выходами и статусом; миссионеры одержимы проблемой и отказываются от нее отказываться, даже когда рынок кричит об обратном. Каждая крупная лаборатория ИИ теперь претендует на звание миссионера, но поведение их лидеров продолжает рассказывать другую историю.

Сэм Альтман позиционирует OpenAI как проект, ориентированный на безопасность и человека, который стремится к AGI на благо всем. Тем не менее, его карьерный путь больше напоминает профиль активного пользующегося наемными подходами: президент Y Combinator, плодовитый бизнес-ангел, соучредитель Worldcoin, агрессивный руководитель fundraising в OpenAI. Его публичные заявления о желании инвестировать «триллионы» долларов в вычислительную мощность и энергетику звучат скорее как не манифест ученого, а как презентация суверенного инвестиционного фонда.

Собственные проявления Альтмана подрывают монашеский образ. Сообщается, что он ежедневно водит автомобиль стоимостью примерно 5 миллионов долларов — кастомный суперкар с титаническим корпусом и увеличенным запасом хода — одновременно обсуждая экзистенциальные риски и универсальное uplift. Он превратил OpenAI из эксперимента с ограниченной прибылью в тесно связанную зависимость от Microsoft, обменяв чистоту управления на многомиллиардную военную казну и инфраструктуру уровня Azure.

Эта требовательная черта проявляется в продуктовой стратегии OpenAI. Основной опыт ChatGPT теперь зарыт под горой дополнительных услуг и экспериментов: варианты GPT-4o, o1/o3, GPT Store, голосовые режимы, Сора, настольные приложения, аналитика в стиле "Pulse", корпоративные панели управления. Вместо четкой концепции о том, для чего нужен ChatGPT, пользователи получают казино функций, конкурирующих за внимание и доход.

Давление монетизации формирует личность модели. Основные цели: - Консервативные предприятия - Сферы здравоохранения и права - Адаптация в образовательных учреждениях

OpenAI превратил ChatGPT в адвоката по правилам, который постоянно отказывает, уклоняется и фильтрует. Этот подход "клоповника с пользовательским опытом" — настройка одного поведения для одной категории пользователей, а затем другого для другой группы покупателей — создает бота, который ощущается не как инструмент, а скорее как отказ от ответственности с автозаполнением.

Стиль руководства Алтмана ставит на первое место выпуск чего-то яркого вместо защиты узкой миссии. Вирусные демо Sora появились раньше, чем стал доступен стабильный и четко позиционированный исследовательский ассистент; GPT Store запустился до того, как основные проблемы с надежностью перестали быть обсуждаемыми на Reddit. Каждое движение имеет смысл для роста и повышения стоимости компании, но каждое также размывает изначальное обещание «полезного ИИ для всех».

Миссионеры защищают душу продукта, даже когда таблица данных не согласна с этим. Наемники оптимизируют таблицу и переписывают душу по мере необходимости. Недавние решения OpenAI указывают, какая сторона в настоящее время управляет компанией.

Безмолвная угроза: как Anthropic заполучил предпринимательство

Anthropic не объявил о красном коде. Он тихо стал стандартным решением для растущей части Fortune 500. В то время как OpenAI гонялся за потребителями и настроениями, Anthropic настроил Claude на один рынок, который действительно подписывает многолетние контракты и выписывает восьмизначные чеки: корпоративный сектор.

Основанная в 2021 году Дарьо и Даниэлой Амодеи после их ухода из OpenAI, Anthropic с самого начала встроила в свою систему «четкую направленную философию». Вместо того чтобы действовать быстро и устранять проблемы с безопасностью позже, компания разработала конституциональный ИИ: модели, обученные следовать явной письменной «конституции» ценностей, с добавлением человеческой обратной связи. Этот подход предоставляет юридическим, комплаенс- и служебным командам возможность, которую они могут действительно проверять и обсуждать.

Предложение Claude для предприятий предельно простое: большие контекстные окна, сильное reasoning и меньше подводных камней. Claude 3.5 Sonnet поддерживает контексты размером в 200K токенов, достаточно для обработки целых кодовых баз, политик и данных M&A за один раз. Разработчики сообщают о более высоком проценте успешных результатов в внутренних задачах кодирования и меньшем количестве «галлюцинаций» API по сравнению с моделями класса GPT-4, а такие бенчмарки, как HumanEval и SWE-bench, теперь регулярно показывают, что Claude превосходит или сравнивается с OpenAI по генерации кода и исправлению ошибок.

Последовала активная адаптация. Anthropic утверждает, что у них есть тысячи платящих бизнес-клиентов; AWS и Google обе перепродают Claude, делая его доступным в один клик через Bedrock и Vertex AI. Slack, Notion, Quora и крупные банки используют Claude в качестве внутреннего инструмента для суммирования, обслуживания клиентов и анализа рисков, именно потому что он строго придерживается заданных рамок и границ.

В то время как OpenAI занимается UX-игрой в «бить молота», Anthropic поставляет узкий, целенаправленный продукт: текстового помощника, оптимизированного для анализа, кода и документов. Google делает что-то похожее с Gemini, интегрируя его в Поиск, Workspace и Android; смотрите Google DeepMind - Gemini, чтобы увидеть, как это выглядит в масштабе.

Восход Anthropic является неудобным контрпримером для OpenAI. Сосредоточенный, ориентированный на миссию план действий, основанный на единой философии и одном типе клиентов, превосходит разрозненную стратегию, нацеленную на «всех и вся», именно там, где это больнее всего: внутри корпоративного фаервола.

Эпистемическая болезнь: когда ваш ИИ судит вас

Эпистемические ограждения звучат обнадеживающе, пока не начинают говорить с вами свысока. Сегодня ChatGPT часто воспринимается не как инструмент, а как контролер, прерывающий сложные беседы, чтобы напомнить вам об официальных указаниях, отказах от ответственности и том, что вы «должны» думать, даже если вы явно просите его этого не делать. Этот тон быстро становится раздражающим, когда вы не новичок, а эксперт в своей области или высокообразованный пациент.

Дэвид Шапиро описывает, как он столкнулся с этой стеной, исследуя хроническое заболевание. Ему нужна была помощь в синтезировании современных клинических статей, рассказов пациентов из форумов и неформальных протоколов, обсуждаемых в специализированных сообществах. ChatGPT неоднократно возвращал его к рекомендациям FDA и шаблонной фразе «поговорите с вашим врачом», отказываясь взаимодействовать с непростыми данными, которые его действительно интересовали.

Под капотом такое поведение происходит из-за эпистемической ошибки, а не просто из-за особенностей пользовательского опыта. OpenAI настроил ChatGPT так, чтобы переоценивать «установленные» учреждения — FDA, CDC, медицинские центры Лиги Плюща, крупные журналы — в то время как недооценивались или полностью отвергались эмпирические, клинические или препринтные доказательства. Модель рассматривает этот узкий срез реальности как большую Истину, а всё остальное — как подозрительное, вне зависимости от контекста или экспертизы пользователя.

Для хронических заболеваний этот предвзятость катастрофична. Многие состояния — длинный Ковид, МЭ/CFS, дисавтономия, хронический Лайм — находятся в серой зоне, где рецензируемые исследования отстают на годы от передовой практики и пациентских сообществ. Пациенты часто собираютInsights из: - Небольших неконтролируемых исследований - Клинических отчетов и блогов врачей - Больших анекдотических наборов данных из Reddit, Facebook или регистров пациентов

Обучение ChatGPT побуждает его недоверчиво относиться именно к таким источникам. Спросите о комплексе добавок, который тысячи пациентов сообщают о его использовании, и он упрекнет вас общими рекомендациями по безопасности, повторяя десятилетние рекомендации, которые никогда не исследовали этот комплекс. Запросите новые протоколы от специализированных клиник, и он "не сможет предоставить" информацию, уклоняясь от разговора, поскольку FDA еще не одобрило их.

Это не нейтральная осторожность; это активный вред. Пользователи, исследующие тонкие и быстро развивающиеся темы, возвращаются к самым медленным и консервативным институтам, именно там, где инновации отстают. ИИ, который рефлексивно оценивает ваши вопросы, вместо того чтобы расширять вашу информационную базу, не просто не помогает — он систематически стирает те знания, которые вы пришли искать.

Потеря концентрации: Sora, реклама и другие отвлекающие факторы

Иллюстрация: Потеря Фокуса: Сора, Реклама и Другие Отвлечения
Иллюстрация: Потеря Фокуса: Сора, Реклама и Другие Отвлечения

Код Красный или нет, OpenAI все больше выглядит как компания, которая не может усидеть на месте долго, чтобы исправить свою основную LLM. В то время как Google выпускает более точные итерации Gemini, а Anthropic тихо поднимает стандартные показатели рассуждений Claude, OpenAI продолжает анонсировать побочные проекты: Sora, Pulse, ленту в стиле TikTok и теперь ранние эксперименты с рекламой в ChatGPT. Никакое из этих нововведений не делает базовую модель менее забывчивой, менее цензурной или более способной решать сложные задачи.

Sora в частности кажется отвлекающим маневром, созданным для вирусного распространения. Демо с текстом в видео набрали миллионы просмотров на X и YouTube, но Sora остается закрытой, требовательной к вычислительным ресурсам и во многом неинтересной тем, кто просто хочет модель, способную надежно отлаживать код, резюмировать исследования или составлять контракты. Каждая минуту вычислений на фотореалистичных собаках на скейтбордах — это минута, недополученная для создания модели с лучшими способностями рассуждения.

Pulse и лента ChatGPT продвигают компанию дальше в область оптимизации вовлеченности. Прокручиваемый поток контента, созданного ИИ, алгоритмы рекомендаций и спонсируемые результаты превращают ChatGPT из инструмента с высокой точностью в социальный продукт, который гонится за метриками "время, проведенное на платформе". Когда вы начинаете оптимизировать длину сеанса, вы неизбежно ухудшаете получение пользователями точных ответов быстро.

Тем временем конкуренты остаются жестко сфокусированными. Google направляет свой огромный бюджет на TPU в контекстные окна Gemini 1.5 и 2.0, использование инструментов и качество кода. Anthropic выпускает Claude 3.5 Sonnet с более сильной математикой, лучшим извлечением длинного контекста и четким корпоративным предложением, акцентирующим внимание на безопасности и надежности, а не на зрелищности.

Дорожная карта OpenAI все больше напоминает стартап на стадии роста, ориентированный на потребителей, а не лабораторию, одержимую интеллектом. Генерация видео, инструменты для создателей, рекламные эксперименты и партнерства с инфлюенсерами все имеют смысл для компании, стремящейся к хайпу. Для пользователей, которым нужен самый умный возможный модель, это выглядит как симптомы команды, потерявшей суть.

Великая миграция: кто выигрывает, а кто теряет?

Красный код или нет, рынок уже начал перераспределять внимание. Оценки трафика от сторонних организаций показывают, что доля посещений ChatGPT среди AI-ассистентов снижается, в то время как Gemini и Claude растут, а данные о мобильном использовании указывают на смещение ежедневного активного времени в сторону экосистемы Google, где Gemini по умолчанию интегрирован в Поиск, Android и Workspace.

Потребители становятся ранними победителями. Конкуренция заставляет быстрее обновлять модели, избегать мертвых зон и улучшать мультимодальные инструменты. Gemini Ultra, Claude 3.5 Sonnet и серия o1/o3 от OpenAI теперь конкурируют по таким параметрам, как рассуждения, задержка и размер контекстного окна, а не только по новизне, что напрямую улучшает повседневное программирование, написание текстов и исследования.

Разработчики получают ещё больше возможностей. Они могут нацеливаться на: - Gemini API, тесно интегрированные с Google Cloud, BigQuery и Vertex AI - Claude API, настроенные для долгосрочных контекстов и низкой вероятности галлюцинаций в корпоративных рабочих процессах - GPT от OpenAI, по-прежнему сильный благодаря глубине экосистемы и истории плагинов

Многооблачные инструменты оркестрации уже динамически направляют запросы к той модели, которая в данный момент работает лучше или дешевле.

Корпоративные покупатели уверенно держат карты на руках. Репутация безопасности Anthropic, соответствие требованиям и мощь SLA Google, а также сервис Azure OpenAI от Microsoft предоставляют ИТ-директорам надежные варианты. Запросы предложений (RFP) теперь требуют переносимости между поставщиками, гарантии затрат на токены и регионального хранения данных, что подталкивает всех трех крупных игроков к более прозрачному ценообразованию и более четкому разделению рисков.

Неудачники сконцентрированы вокруг текущей гравитационной ямы OpenAI. Если Сэм Альтман не сможет разгрузить UX «свинг» и не сосредоточится на единой, целостной продуктовой философии, ChatGPT рискует стать «наследственным» помощником: укоренившимся, но больше не лучшим в своем классе. Мощные пользователи, создавшие рабочие процессы на форматах, плагинах и GPT, специфичных для ChatGPT, столкнутся с налогами на миграцию, когда будут перенастраиваться на Gemini или Claude.

В долгосрочной перспективе ожидайте гонки на понижение цен на базовые токены и гонки на повышение по уникальным функциям. Модели фронтирного рассуждения, специализированные сопроводительные системы и частная тонкая настройка, вероятно, будут пользоваться повышенным спросом, в то время как доступ к общим чатам будет стремиться к статусу товара или объединяться в облачные контракты.

Доступность, вероятно, улучшается. Регуляторное давление в ЕС, Индии и Бразилии, а также общественный контроль со стороны таких изданий, как The Verge - AI Coverage, стимулируют открытые бенчмарки, более четкие раскрытия информации о безопасности и более доступные тарифы для образования и малых стартапов, даже несмотря на то, что современные модели, приближающиеся к AGI, остаются закрытыми за высокими ценами и строгими требованиями KYC.

Следующий шаг OpenAI: искупление или крах?

Код Красный в OpenAI не возник ниоткуда. Он восходит к неправильной философии пользовательского опыта, которая превратила ChatGPT в адвоката по правилам, терапевта, корпоративного специалиста по соблюдению норм и бота для медицинской сортировки одновременно. Этот подход «пинг-понг с пользовательским опытом» привел к созданию модели, которая прерывает, цензурирует и сомневается, вместо того чтобы просто помогать пользователям выполнять свою работу.

Наложите это на позицию наемного руководства, и история обостряется. OpenAI изменила свою модель с некоммерческой лаборатории на ограниченно прибыльный гигант, заключила многомиллиардную сделку с Microsoft и стремилась к вирусности с помощью Sora и социальных функций, в то время как Anthropic тихо заключала контракты с предприятиями. В результате: Gemini, по сообщениям, обгоняет по ежедневной вовлеченности, а Claude 3.5 Sonnet становится стандартом для осторожных Fortune 500.

Потеря фокуса проявляется повсюду. Основной опыт ChatGPT застыл на месте, в то время как OpenAI выпустила GPT Store, голосовой чат, тизеры Sora и эксперименты, связанные с рекламой. Тем временем Google объединил Gemini с Поиском, Документами и Android, а Anthropic адаптировала Claude для работы с длительными контекстами, процессами управления и запросами на предложения — высокоприбыльной, но скучной работой, которая действительно приносит доход.

Восстановление требует жесткой переориентации на продукт и культуру. OpenAI нужны четкие, выраженные режимы вместо одного чрезмерно ограниченного универсала: исследовательский режим, который допускает неаккуратные данные, корпоративный режим с четкими гарантиями и креативный режим, который действительно способен к галлюцинациям по команде. Это означает меньше жестко прописанных отказов и больше прозрачных контролей над уровнями безопасности, источниками и компромиссами по рискам.

Культурно OpenAI должна прекратить вести себя как стартап на стадии роста, гоняясь за каждым блестящим объектом. Ей нужен скучный дорожная карта: квартальные цели по надежности, соглашения о времени задержки, закрепление версий моделей и документирование изменений в поведении. Корпоративным клиентам меньше интересны демонстрации рассуждений в стиле o1 и больше важно, будет ли вчерашний запрос работать завтра.

Сэм Альтман находится в центре этой дилеммы. Он отлично разбирается в сборе средств, создании ажиотажа и наборе кадров, но никогда не управлял компанией с критически важной инфраструктурой численностью более 1000 человек. Управление OpenAI в условиях антимонопольного контроля, глобального регулирования и жесткой конкуренции в облачных технологиях может потребовать специалистов с опытом уровня Google или AWS на ключевых позициях.

Ничто из этого не означает, что OpenAI закончена. У нее по-прежнему сохраняется известность бренда, огромная база пользователей ChatGPT, привилегированный доступ к Azure и одни из лучших исследователей моделей в мире. Однако преимущество первопроходца утрачено; это доказали Gemini и Claude.

Осталось только настоящее гонка вооружений. Google, OpenAI, Anthropic, Meta и экосистемы с открытым исходным кодом будут подталкивать друг друга в вопросах длины контекста, многомодальности, задержки и цены. Потребители и разработчики выигрывают, когда Code Red превращается в устойчивую, дисциплинированную конкуренцию, а не в кнопку паники.

Часто задаваемые вопросы

Что такое "Code Red" от OpenAI?

Это внутренняя инициатива, объявленная генеральным директором Сэмом Олтманом, чтобы срочно решить проблему конкурентной угрозы со стороны Google Gemini, что сигнализирует о том, что OpenAI осознает, что отстает в ключевых областях.

Почему некоторые пользователи предпочитают Gemini ChatGPT?

Пользователи отмечают, что Gemini лучше сохраняет контекст разговора, превосходен для академического и научного письма, и менее склонен к свысока «проверке фактов» или отказу обсуждать сложные темы.

Какова проблема 'UX Whack-a-Mole', упомянутая в анализе?

Это описывает стратегию OpenAI по чрезмерному корректированию ChatGPT для безопасности и принятия в бизнесе, что делает его чрезмерно осторожным и подчиненным правилам, что ухудшает основной пользовательский опыт и полезность.

Как философия Google для Gemini отличается от философии OpenAI для ChatGPT?

Google, с его историей поисковой системы, имеет 'агностичный' взгляд на информацию, доверяя намерениям пользователя. OpenAI стала излишне кураторской, полагаясь только на 'установленные' источники и ограничивая полезность модели.

Frequently Asked Questions

Поисковая ДНК Google: Несправедливое Преимущество?
OpenAI ведет себя как стартап, который по-прежнему одержим своим флагманским демо. Google ведет себя как 25-летняя инфраструктурная компания, которая два десятилетия тихо разрешает споры в мире. Эта разница в институциональной muscle memory проявляется каждый раз, когда вы задаете Gemini вопрос, касающийся серых зон.
Великая миграция: кто выигрывает, а кто теряет?
Красный код или нет, рынок уже начал перераспределять внимание. Оценки трафика от сторонних организаций показывают, что доля посещений ChatGPT среди AI-ассистентов снижается, в то время как Gemini и Claude растут, а данные о мобильном использовании указывают на смещение ежедневного активного времени в сторону экосистемы Google, где Gemini по умолчанию интегрирован в Поиск, Android и Workspace.
Следующий шаг OpenAI: искупление или крах?
Код Красный в OpenAI не возник ниоткуда. Он восходит к неправильной философии пользовательского опыта, которая превратила ChatGPT в адвоката по правилам, терапевта, корпоративного специалиста по соблюдению норм и бота для медицинской сортировки одновременно. Этот подход «пинг-понг с пользовательским опытом» привел к созданию модели, которая прерывает, цензурирует и сомневается, вместо того чтобы просто помогать пользователям выполнять свою работу.
Что такое "Code Red" от OpenAI?
Это внутренняя инициатива, объявленная генеральным директором Сэмом Олтманом, чтобы срочно решить проблему конкурентной угрозы со стороны Google Gemini, что сигнализирует о том, что OpenAI осознает, что отстает в ключевых областях.
Почему некоторые пользователи предпочитают Gemini ChatGPT?
Пользователи отмечают, что Gemini лучше сохраняет контекст разговора, превосходен для академического и научного письма, и менее склонен к свысока «проверке фактов» или отказу обсуждать сложные темы.
Какова проблема 'UX Whack-a-Mole', упомянутая в анализе?
Это описывает стратегию OpenAI по чрезмерному корректированию ChatGPT для безопасности и принятия в бизнесе, что делает его чрезмерно осторожным и подчиненным правилам, что ухудшает основной пользовательский опыт и полезность.
Как философия Google для Gemini отличается от философии OpenAI для ChatGPT?
Google, с его историей поисковой системы, имеет 'агностичный' взгляд на информацию, доверяя намерениям пользователя. OpenAI стала излишне кураторской, полагаясь только на 'установленные' источники и ограничивая полезность модели.
🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts