TL;DR / Key Takeaways
Меморандум, который потряс OpenAI
"Неприятные времена впереди" — это не то, как Сэм Олтман обычно представляет будущее. Тем не менее, именно так он описал следующий этап OpenAI в утечке меморандума, в котором признается то, что два года назад было немыслимо внутри компании: Google догнал нас. После запуска Gemini 3, как сообщили, Олтман сказал сотрудникам, что Google создаст "временные экономические препятствия" и что внешние "вибрации" будут негативными какое-то время.
Для компании, которая использовала GPT-3, GPT-4 и ChatGPT для создания воспринимаемого монопольного положения в производительности, этот меморандум выглядит как внутренний некролог для бесспорного лидерства OpenAI. С конца 2022 года OpenAI могла заявить о значительном отрыве по большинству публичных бенчмарков и реальному использованию. Теперь Gemini 3 Pro показывает такие же или лучшие результаты, чем GPT-4.1 по многим тестам на рассуждение и кодирование, а Claude 3.5 Sonnet от Anthropic обходит OpenAI в других.
Этот сдвиг имеет меньшее значение для точного лидерства и большее для психологии. В течение 18 месяцев Google носил ярлык «отстающего», и критики призывали Сундар Пичаи уйти в отставку, так как компания спотыкалась с Bard и торопилась с Gemini 1. Теперь Уолл-Стрит добавил более 20% к рыночной капитализации Alphabet за месяц, приблизив её к $3 триллионам, основываясь на убеждении, что Google не только сравнялся с моделями OpenAI, но и интегрировал их во все свои сервисы: Search, Workspace, Android и Cloud.
Внутри Кремниевой долины повествование изменилось с «Google упустил момент» на «Google имеет самую глубокую стековую архитектуру». Gemini работает на собственных TPU Google, подключается к индексу поиска, охватывающему миллиарды страниц, и внедряется в продукты с более чем 2 миллиардами пользователей. OpenAI, в отличие от этого, в основном распространяет свой продукт через ChatGPT, веб-сайт и приложение, которые, хотя и являются масштабными, пока не могут обеспечить целую вычислительную платформу.
Меморандум Алтмана описывает этот разрыв как испытание на выполнение. Он утверждает, что OpenAI должно одновременно стать: - Лучшей исследовательской лабораторией - Лучшей компанией по инфраструктуре ИИ - Лучшей компанией по продуктам и платформам ИИ
Это жестоко амбициозная триада для стартапа, который по-прежнему зависит от вычислений и распределения через Microsoft Azure. Альтман настаивает, что "не стал бы менять место с какой-либо другой компанией", но меморандум тихо признает то, что Gemini 3 сделала очевидным: OpenAI уже не задает темп одна.
Gemini 3: Конец домогательства к правам на рекорды эталонов
Бенчмарки, наконец, рассказывают другую историю. Gemini 3 Pro от Google показывает показатели на уровне GPT-4 практически по всем академическим тестам, которые имели значение за последние два года, от наборов задач на рассуждение в стиле MMLU до задач по программированию и многомодальным задачам. На собственных графиках Google Gemini 3 Pro превосходит GPT-4 и Claude от Anthropic на большинстве таблиц лидеров, а в некоторых оценках соперничает или обходит GPT-4.1, а не старую версию 4.0.
Эти победы раньше были главной нарративой OpenAI. Запуск GPT-4 превратил слайды с бенчмарками в события, влияющие на акции; Gemini 1 и 1.5 в основном пытались догнать. Gemini 3 меняет эту ситуацию: впервые Google может обоснованно заявить о наличии модели на передовом уровне в тройке лучших без оговорок о узких областях или缺失ных возможностях.
Тем не менее, именно поэтому Сэм Альтман, как сообщается, назвал это «временными экономическими трудностями» и «жесткими временами впереди». Производительность на фронтире стала обязательным минимумом: вы должны достигать узкого диапазона «достаточно хорошего» в области логики, программирования и мультимодальности, чтобы вообще попасть в игру. Как только все достигнут этого уровня — Google, OpenAI, Anthropic, xAI — маржинальная ценность каждой дополнительной точки в бенчмарке стремительно падает.
Инвесторы, пох semble, это понимают. Акции Alphabet выросли примерно на 22% за месяц, добавив сотни миллиардов долларов к рыночной капитализации компании, уже близкой к оценке в 3 триллиона долларов, не потому что Gemini 3 Pro решил проблему ИИ, а потому что это подтвердило целую платформу ИИ Google. Уолл-стрит увидела доказательство того, что Google может выпустить передовую модель и сразу же интегрировать её в Search, Workspace, Android, Chrome и Cloud.
Власть теперь переходит от чистой гонки моделей к гонке интеграции и стратегии. Важные вопросы:
- 1Как быстро вы сможете внедрить новую модель для миллиардов пользователей?
- 2Насколько тесно вы можете связать это с собственными данными и распределением?
- 3Насколько эффективно вы можете запускать это на своём собственном кремнии и инфраструктуре?
Google внезапно выглядит пугающе на всех трех направлениях. Gemini 3 Pro не просто сравним с GPT-4; он открывает связную экосистему, где модели, TPU, дата-центры и продукты движутся синхронно. Появление права хвастаться бенчмарками создало возможность, но настоящая игра заключается в том, что теперь Google может построить на этом всем.
Триллионная укрепление: Инфраструктура и наличные средства
Капитал, а не ум, решает, кто выживет в гонке вооружений ИИ. Обучение и обслуживание фронтальных моделей в глобальном масштабе требует колоссальных сумм денег и оборудования: десятки тысяч графических процессоров или TPU, многомиллиардные дата-центры и контракты на электроэнергию, которые больше напоминают сделки по национальной инфраструктуре, чем статьи ИТ-бюджета. Это игра, где одна сессия обучения может стоить более 100 миллионов долларов.
Google просто может выписать чек. Alphabet за последние 12 месяцев заработала около 90 миллиардов долларов чистой прибыли при примерно 300 миллиардах долларов выручки, и она инвестирует растущую долю этой суммы в инфраструктуру ИИ и исследования. Эти прибыли финансируют разработку специализированных TPU, новые кампусы дата-центров и дорожную карту Gemini, изложенную в Новая эра интеллекта с Gemini 3 - Блог Google.
Этот цикл самофинансирования важен, потому что расходы на инфраструктуру ИИ имеют предварительные затраты и являются неуклонными. Вы платите за обучение, затем за переобучение, затем за предоставление вывода сотням миллионов пользователей с задержкой в несколько миллисекунд. Google может распределять эти расходы по таким направлениям, как Поиск, YouTube, Реклама, Workspace, Android, Chrome и Облако, все из которых непосредственно выигрывают от улучшенных моделей.
OpenAI и Anthropic живут в другой вселенной. Они зависят от внешнего капитала от Microsoft, Amazon, Google и венчурных фондов для финансирования графических процессоров, дата-центров и ведущих исследователей. Каждое обновление модели неявно требует новых переговоров: больше кредитов, больше долей или более сложных соглашений о разделе доходов, которые увеличивают бизнес-риски.
Эта зависимость проявляется как стратегическая хрупкость. Если капитальные рынки сократятся или ключевой партнер изменит приоритеты, OpenAI и Anthropic столкнутся с трудным выбором: замедлить прогресс моделей, привлечь средства на худших условиях или принять более глубокую интеграцию, которая подорвет независимость. Ни один из этих вариантов не выглядит привлекательно, когда конкуренты имеют почти бесконечное внутреннее финансирование.
Meta и Microsoft находятся ближе к Google в спектре баланса, но даже здесь риторика выдает истинные намерения. Марк Цукерберг открыто заявляет, что готов "потратить миллиарды нецелевым образом" на инвестиции в ИИ и метавселенную, что возможно только благодаря тому, что рекламная машина Meta генерирует деньги с Facebook, Instagram и WhatsApp. Он может рассматривать инфраструктуру ИИ как многолетний научный проект, а не как тест на выживание от квартала к кварталу.
Преимущество Google накапливается. Каждый новый дата-центр, поколение TPU и релиз Gemini укрепляют его позиции, снижают предельные затраты и затрудняют жизнь лабораториям с ограниченным капиталом, которые пытаются оставаться на одной и той же арене. В области ИИ масштаб является не просто преимуществом; это барьер для входа.
Силиконовое превосходство: Преимущество кастомизированных чипов Google
Силикон, а не алгоритмы, тихо решает, кто выиграет эту гонку ИИ. Google потратил почти десятилетие на разработку собственных TPU (тензорных процессоров), которые теперь находятся на пятом поколении и развернуты в его дата-центрах. Это означает, что Gemini 3 работает не только на H100 от Nvidia; он работает на аппаратном обеспечении, которое Google разработал, контролирует и настраивает от начала до конца.
Индивидуальные кремниевые чипы меняют экономику. Google утверждает, что TPU обеспечивают до 3 раз лучшее соотношение производительности к стоимости по сравнению с аналогичными GPU для обучения и вывода на больших моделях, и их можно упаковать тысячами в тесно связанных системах. Когда вы обрабатываете миллиарды запросов через Поиск, YouTube, Android и Workspace, экономия даже 10–20% на затратах на вывод приводит к миллиардам долларов прибыли.
Вертикальная интеграция превращает это оборудование в структурное оружие. Google может совместно разрабатывать архитектуры Gemini с учетом ядер TPU, схем памяти и сетевых решений, а затем оптимизировать компиляторы, среды выполнения и топологию дата-центров как единую платформу. Никакого ожидания дорожной карты Nvidia, никаких универсальных компромиссов с CUDA и никаких торговых войн за дефицитные мощности H100.
Все остальные прочитали меморандум. M-серия и Neural Engine Apple теперь выполняют десятки триллионов операций в секунду на устройстве, настроенные для Core ML и iOS. AWS имеет Trainium и Inferentia, чтобы сократить зависимость клиентов от Nvidia в собственном облаке Amazon. Microsoft внедряет свои чипы Azure Maia и Cobalt для поддержки Copilot и своих внутренних моделей, не выплачивая полную налоговую ставку Nvidia.
Шаблон очевиден: гипермасштабируемые компании с серьезными амбициями в области ИИ стремятся избежать зависимости от единого поставщика графических процессоров. Выручка Nvidia от дата-центров составила примерно 47 миллиардов долларов в финансовом 2024 году, и ее маржи показывают, почему все хотят выбраться из этой ситуации. Если вы сможете заменить хотя бы часть этих затрат на свои собственные чипы, вы не только сэкономите деньги, но и получите стратегическую автономию.
Чисто AI-лаборатории, такие как OpenAI и Anthropic, находятся на неправильной стороне этой разделительной линии. Они зависят от облачных сервисов и чипов партнеров, будь то Azure от Microsoft с Nvidia и Maia, или AWS с Nvidia и Trainium. Они могут вести переговоры о скидках и зарезервированной мощности, но не могут перепроектировать оборудование под своими моделями. Этот разрыв только расширяется по мере роста моделей, нагрузка на электросети усиливается, и настоящая игра заключается в том, кто сможет запускать передовой ИИ в масштабе за копейки, а не за доллары за запрос.
Платформенная игра: обслуживание моделей ваших соперников
Стратегия платформы тихо стала другой гонкой вооружений в области ИИ. В то время как OpenAI, Google и Anthropic сосредоточены на передовых моделях, Microsoft Azure и AWS построили другую основу власти: диверсифицированные модели под рукой. Их предложение для предприятий простое и беспощадное: запускайте любую модель, какую хотите, платите нам за вычисления и меняйте поставщиков, когда угодно.
Каталог Azure выглядит как список самых популярных AI: GPT‑4.1, Claude 3.5, Llama 3.1, Mistral, а также собственные модели Microsoft — Phi и "малые языковые модели". AWS Bedrock идет еще дальше, объединяя Anthropic Claude, Meta Llama, Mistral, Cohere, Stability и модели Nova от Amazon под одной API. Оба облачных гиганта предлагают это с управляемой безопасностью, логированием и соблюдением стандартов, которым уже доверяют покупатели из Fortune 500.
Для ИТ-директоров, которые пострадали от прежней зависимости от облака, выбор модели является обязательным. Они хотят: - Запустить пилотный проект GPT-4.1 в этом квартале и Claude 3.5 в следующем - Хранить контролируемые данные внутри одного облачного периметра - Торговаться по цене, угрожая сменой моделей, а не перестройкой стэков
Над всем этим витает ирония. Microsoft и AWS все еще отстают в своих собственных фронтирных моделях — Nova не равно Gemini 3 Pro, а внутренние разработки Microsoft уступают лучшим достижениям OpenAI. Тем не менее, обе компании зарабатывают на прорывах других, получая свою долю каждый раз, когда токен OpenAI или Anthropic проходит через их графические процессоры.
Такая позиция создает другой «защитный рубеж»: не «лучший ум», а «незаменимая основа». Действуя как нейтральная площадка, где сосуществуют конкуренты, Azure и AWS превращают поставщиков моделей в арендаторов. Чем более гетерогенной становится ландшафт ИИ — Gemini здесь, GPT там, специфическая для домена Llama в углу — тем сложнее предприятиям покинуть платформу, которая координирует все это.
Шаг Google по размещению сторонних моделей внутри Vertex AI и Gemini API показывает, что компания осознает эту угрозу. Побеждать в ИИ теперь означает не только создание самой умной модели; это значит владеть пультами управления, которые маршрутизируют каждый запрос предприятия, независимо от того, чей логотип находится на весах.
Победа на передовой: Потребительская техника и пользователей
Потребительское оборудование теперь находится на передовой войны ИИ. Модели размещены в дата-центрах, но настоящая борьба происходит на телефонах, очках, наушниках, ноутбуках и автомобилях — на тех устройствах, где люди на самом деле общаются с ИИ. Контролируй интерфейс, и ты контролируешь использование, данные и стандартные поведения.
Google тихо владеет самой широкой в мире платформой для внедрения ИИ. Android работает на более чем 3 миллиардах активных устройств, и Google может интегрировать Gemini в клавиатуру, экран блокировки, Chrome, Карты, Фото и Play Store. Каждая точка низкого трения — долгое нажатие кнопки питания для Gemini, встроенные предложения в Gmail, ИИ-резюме в Chrome — это тонкое, но мощное преимущество в распределении.
Достижения Gemini не остановятся на телефонах. Google может внедрить модели на устройствах и гибридные модели в: - телефоны Pixel и наушники Pixel Buds - часы Wear OS и Android Auto - динамики, дисплеи и телевизоры Nest
Как только Gemini станет системной службой, а не просто приложением, пользователи перестанут «идти» к ИИ и начнут жить внутри него. Позиционирование самой Google Gemini 3 - Google DeepMind четко дает понять цель: одна модель для всех поверхностей Google.
Apple играет в другую, не менее опасную игру. Более 2,2 миллиарда активных устройств Apple образуют вертикально интегрированную машину доставки ИИ: iPhone, iPad, Mac, Apple Watch, AirPods и CarPlay. Чипы Apple уже запускают удивительно большие модели на устройствах, а такие функции, как Apple Intelligence, резюмирование на устройстве и обновления Siri могут появляться неожиданно через обновления iOS, macOS и watchOS.
AirPods могут стать тайным оружием Apple в сфере ИИ. Постоянно включенные микрофоны, ультранизкая задержка звука и тесная интеграция с экосистемой делают их идеальными для помощников в реальном времени, которые шепчут указания, переписывают сообщения или переводят речь без экрана. Очки, если и когда Apple выпустит их в больших количествах, превратят этого амбиентного помощника в нечто, что вы сможете видеть так же, как и слышать.
Компании без стратегии в области аппаратного обеспечения сталкиваются с жестким потолком. OpenAI, Anthropic и xAI вынуждены арендовать свое место на платформах других людей через приложения, вкладки браузеров или интеграции API. Это означает более высокие затраты на привлечение клиентов, более слабые показатели по умолчанию и постоянную уязвимость перед владельцами платформ, которые могут изменить правила или предустановить конкурирующих ассистентов.
Без телефонов, наушников или встроенных систем эти лаборатории рискуют стать задействованными утилитами — удивительными умами без собственного тела. В мире ИИ, определяемом повседневными точками контакта, это опасное положение.
Данные: Топливо, которого у Google в неограниченном количестве
У Google есть то, что ни одна лаборатория, стартап или облачный конкурент не могут приобрести: два десятилетия данных о продуктах, которые касаются практически каждого человека в интернете. Поиск, YouTube, Карты, Gmail, Android, Chrome и Workspace тихо генерируют высококачественный поток информации о том, что миллиарды людей спрашивают, смотрят, пишут, кликают и по чему навигируют каждый день.
Ежедневно происходит примерно 8,5 миллиарда поисков в Google. YouTube насчитывает более 2 миллиардов зарегистрированных пользователей в месяц и более миллиарда часов просмотра в день. Maps обслуживает более 1 миллиарда пользователей в месяц, а Gmail, по сообщениям, имеет более 1,5 миллиарда аккаунтов, каждый из которых является структурированным архивом человеческого языка, намерений и рабочих процессов.
Эти данные — это не просто «много текста». Они тесно связаны с поведением. Google видит: - Что люди ищут и по какому результату они кликают - Какие видео на YouTube они смотрят до конца, пропускают или пересматривают - Как они перемещаются по городам в Картах, минута за минутой - Как они пишут, редактируют и отвечают на сообщения в Gmail и Docs
Глубокая интеграция этих поверхностей позволяет Gemini 3 учиться на причинно-следственных связях в планетарном масштабе. Изменение автозаполнения в Поиске, рекомендаций в YouTube или маршрутов в Картах мгновенно генерирует обратные связи от сотен миллионов пользователей, которые Google может использовать для обучения моделей и их подстройки.
Это создает жесткий положительный цикл. Более качественные модели улучшают результаты и рекомендации, что увеличивает вовлеченность, что генерирует больше размеченных данных о поведении, что еще больше уточняет модели. Каждый запрос, коррекция маршрута и брошенное видео становятся сигналом для обучения, который конкуренты никогда не видят.
Даже Microsoft, Meta и Apple не могут легко повторить это. Azure хостит рабочие нагрузки, но не контролирует намерения пользователей, как это делает Поиск. У Meta есть социальные графы, но нет глобальной навигации или корпоративной электронной почты на уровне Gmail. Apple доминирует на рынке устройств, но не владеет облачными потоками поведенческих данных.
Капитал может купить графические процессоры; он не может купить 20 лет взаимодействия пользователей в открытой сети, видео, картах и почте. Этот защитный слой данных может оказаться самым сложным преимуществом Google, которое невозможно устранить.
Поле битвы ИИ: Полный отчет
Проверьте карту оценок Бермана, и вы заметите закономерность: Google - единственная компания с зелеными показателями почти по всем пунктам. Модель фронтира, инфраструктура, разнообразные модели, заказной кремний, существующие доходы, лучшие исследователи, потребительское оборудование, база пользователей, собственные данные, глубокая интеграция — это почти идеальный результат. Даже среди крупных технологических компаний никто другой не достиг такого количества галочек одновременно.
На фронтовых моделях только Google, OpenAI, Anthropic и xAI сидят за столом высшего уровня. Gemini 3 Pro, GPT-4.1, Claude 3.5 и Grok 3 все квалифицируются как «фронтовые». Но Google объединяет Gemini с тем, чего лишены чистые лаборатории: родительской компанией стоимостью 3 триллиона долларов, которая уже управляет Search, YouTube, Maps, Android, Chrome и Gmail в глобальном масштабе.
Инфраструктура дополнительно сдвигает положение на рынке. Google, Microsoft, Meta, Apple, AWS и xAI διαθέτουν собственную AI инфраструктуру. OpenAI и Anthropic, напротив, все еще сильно полагаются на партнеров — Microsoft и AWS — для получения мощностей, пока спешат строить проекты, такие как Stargate от OpenAI. Эта зависимость делает каждую нехватку GPU или переговоры по контрактам экзистенциальным риском.
Пользовательские кремниевые чипы превращают этот риск в защиту. TPU от Google, M-серия от Apple и Trainium/Inferentia от Amazon предоставляют этим компаниям контроль над затратами и производительностью, которого не могут достичь чистые лаборатории. OpenAI и Anthropic фактически арендуют свою вычислительную судьбу у других, что ограничивает маржи и замедляет итерации при резком увеличении спроса.
Выручка демонстрирует самый резкий разрыв. Google, Microsoft, Apple, Meta и AWS зарабатывают десятки или сотни миллиардов долларов в год на рекламе, облачных услугах и аппаратном обеспечении. Эти средства финансируют многомиллиардные инвестиции в ИИ без необходимости в разводнительном привлечении средств. OpenAI и Anthropic полагаются на сборы за использование и партнерские сделки, которые кажутся незначительными по сравнению с бюджетами гиперскейлеров.
Пользовательское оборудование и база пользователей углубляют разрыв. Google, Apple и Meta поставляют телефоны, гарнитуры, смарт-колонки и носимые устройства миллиардам пользователей. Microsoft владеет Windows и Office. OpenAI и Anthropic имеют ChatGPT и Claude в качестве продуктов, но у них нет операционной системы, телефона, гарнитуры и дефолтного размещения на 3 миллиардах устройств.
Meta и Microsoft играют разные, но согласованные роли. Meta ставит на исследования и открытые модели, такие как Llama, а также на будущее AR-очков и гарнитур как интерфейс ИИ. Microsoft делает ставку на партнёрства и Azure: эксклюзивный доступ к OpenAI, Copilot, встроенный в Windows и Office, а также стратегию диверсификации моделей, которая с готовностью обслуживает модели конкурентов — за плату.
Сложив все это, Google остается единственным игроком с передовыми моделями, гипермасштабной инфраструктурой, индивидуальными чипами, огромными доходами, глобальным оборудованием и бесконечным потоком данных — все это под одной крышей. Остальные играют в увлекательную партию в шахматы; Google играет практически всеми фигурами на доске.
Невозможная тройка OpenAI
Утечка мемуара Сэма Алтмана звучит не как внутреннее вдохновение, а скорее как признание в физике: OpenAI пытается быть тремя компаниями одновременно. Это передовая исследовательская лаборатория, ориентированная на создание ИИ общего назначения (AGI), гипермасштабный поставщик инфраструктуры, реализующий проекты вроде Stargate, и отлаженная коммерческая и корпоративная продуктовая компания с ChatGPT и его API. Каждая из этих частей по отдельности уже является многомиллиардным бизнесом, сталкивающимся с трудностями реализации.
OpenAI необходимо нанять специалистов уровня DeepMind, договориться о расходах на GPU и центры обработки данных в десятки миллиардов долларов и выпускать надежные продукты для более чем 100 миллионов пользователей вAlmost real-time. Любая ошибка в одном из столпов затрагивает остальные: прорывы в исследованиях требуют новых кластеров, превышение инфраструктурных затрат вынуждает изменять цены, ошибки в продуктах замедляют работу с данными. Это и есть «невозможная троица», о которой говорит Альтман, не называя ее.
Крупные технологические компании уже решили эту задачу, но не одновременно и не под давлением экзистенциальной угрозы. Google потратил почти 25 лет на создание инфраструктуры для масштабируемого поиска, рекламных доходов и Android до появления Gemini. Microsoft укреплял Azure на миллионах корпоративных рабочих нагрузок задолго до того, как интегрировал модели OpenAI в Copilot. Их команды по искусственному интеллекту теперь подключаются к зрелым системам, которые уже приносят десятки миллиардов долларов свободного денежного потока в квартал.
Google может рассматривать Gemini как обновление существующей машины: TPU в своих дата-центрах, Android и Chrome в качестве способов распространения, а Workspace как мгновенный слой продуктивности. Компания может сосредоточиться на интеграции — внедряя Gemini в Поиск, Документы и Облако — поскольку значительная часть затрат на инфраструктуру, оборудование и монетизацию уже распределена. Gemini 3 доступен для бизнеса | Блог Google Cloud воспринимается не как запуск, а скорее как обновление версии устоявшейся платформы.
Для OpenAI единственная ошибка в выборе архитектуры модели, ценообразовании или инфраструктуре может оказаться фатальной. Если компания решит сфокусироваться на стратегии кастомных чипов и потеряет два года, она рискует оказаться в ситуации, когда будет оставаться позади в расходах и поставках. Google или Microsoft могут позволить себе такую же ошибку как статью расходов, списать несколько миллиардов и компенсировать это с помощью других команд, других продуктов или просто больше наличных.
Новая эра: от войн моделей к империям экосистем
Права на хвастовство моделями создали цикл ажиотажа, но они не определят конечный результат. Искусственный интеллект перешел от спринта к следующему эталону к длительному процессу стратегической интеграции, где задержка, время работы от батареи, распределение и маржа имеют большее значение, чем 3-процентный прирост в MMLU. Системы класса Gemini 3 и GPT-4 установили паритет на вершине; все, что идет после этого, — это исполнение.
Кто бы ни контролировал полный стек — от кастомного кремния до облака и стеклянного прямоугольника в вашем кармане — тот контролирует экономику и пользовательский опыт. Теперь Google запускает Gemini на своих собственных TPU, проходит через Google Cloud и интегрирует его в Search, Android, Chrome, Workspace и YouTube. Этот вертикальный цикл снижает затраты, улучшает обратную связь и делает переключение на другие решения похожим на вырывание трубопроводов.
В течение следующих 18 месяцев ожидайте, что Google будет всё больше внедрять Gemini в стандартные функции: автозаполнение, которое постепенно превращается в агента, карты, которые планируют вашу поездку, YouTube, который редактирует ваши видео за вас. Каждый Android-устройство станет точкой доступа Gemini, при этом модели на устройстве будут обрабатывать личные задачи, а облачные модели — тяжелые вычисления, так что пользователи едва ли заметят разницу между ними.
Apple ответит не только новейшими моделями, но и безжалостным использованием своего экосистемы. Искусственный интеллект Apple будет полагаться на партнеров, таких как Google, для облачных вычислений, при этом запускает меньшие модели на процессорах Apple в iPhone, Mac и Vision Pro. Ценность заключается в непрерывности: один и тот же агент в Сообщениях, Почте, Заметках, Фото и CarPlay, всё это обёрнуто в нарратив конфиденциальности Apple.
Стартапы перестанут притворяться, что могут превзойти гипермасштабные компании, и вместо этого будут искать прибыльные ниши:
- 1Вертикальные сопроводители в юридической, финансовой и медицинской сферах
- 2Агенты подключены к собственным данным предприятия.
- 3Легковесные, специализированные модели, оптимизированные по цене
Большинство из них будет работать на Google Cloud, AWS или Azure, выплачивая аренду тем компаниям, которые они якобы нарушают.
ChatGPT сделал искусственный интеллект общепризнанным термином и превратил «промптинг» в глагол. Однако повсеместное присутствие больше напоминает Gemini, тихо встроенный в Поиск, Gmail, Android и Chrome, обрабатывающий миллиарды микро-взаимодействий в день. OpenAI может оставаться тем брендом, о котором вы думаете, когда говорите «ИИ», но сетка услуг Google движется к тому, чтобы стать местом, где ИИ просто существует, повсюду и одновременно.
Часто задаваемые вопросы
Что делает Gemini 3 от Google значительной угрозой для OpenAI?
Производительность Gemini 3 сократила разрыв с GPT-4, но настоящая угроза исходит от способности Google использовать его в огромной экосистеме продуктов, данных, специализированного оборудования и инфраструктуры — преимуществ, которых лишён OpenAI.
Какие основные стратегические преимущества у Google в гонке искусственного интеллекта?
Ключевые преимущества Google включают в себя значительные существующие доходы для финансирования НИОКР, индивидуальный кремний TPU для эффективной обработки, беспрецедентные собственные данные от своих сервисов,庞упюю базу пользователей через Android и Поиск, а также глобальную ИИ-инфраструктуру.
Согласно утекшей записке, что Сам Альтман признал в отношении Google?
Меморандум Сэма Альтмана признал, что Google догнал по производительности модели, что создаст "негативную атмосферу" и "временные экономические трудности" для OpenAI, завершив период его безоговорочного лидерства.
Почему наличие «существующего дохода» так важно для компании, занимающейся ИИ?
Разработка и инфраструктура ИИ невероятно дороги. Компании, такие как Google, могут финансировать многомиллиардные проекты за счет своей прибыли, что позволяет им рисковать и тратиться больше своих конкурентов, таких как OpenAI, которая должна полагаться на привлечение внешнего финансирования.