Троянский конь Nvidia за 20 миллиардов долларов

Nvidia не просто купила Groq за 20 миллиардов долларов; они провели блестящий корпоративный маневр, который нейтрализует ключевого соперника. Это история сделки, которая переопределяет, как крупные технологические компании выигрывают войну в области ИИ.

Stork.AI
Hero image for: Троянский конь Nvidia за 20 миллиардов долларов
💡

TL;DR / Key Takeaways

Nvidia не просто купила Groq за 20 миллиардов долларов; они провели блестящий корпоративный маневр, который нейтрализует ключевого соперника. Это история сделки, которая переопределяет, как крупные технологические компании выигрывают войну в области ИИ.

20-миллиардное мошенничество

Заголовки, кричащие о том, что NVIDIA «купила» Groq за 20 миллиардов долларов, отлично смотрятся на миниатюрах, но упускают суть. Это не чистая покупка, при которой одна компания исчезает в другой. Это тщательно спланированное неэксклюзивное лицензионное соглашение, в сочетании с массовой миграцией сотрудников.

NVIDIA не владеет корпоративной оболочкой Groq. Вместо этого она получает лицензию на высокопроизводительную технологию вывода Groq и нанимает основателя Джонатана Росса, президента Сани Мадру и критически важное количество старших инженеров. Groq сохраняет свой бренд, сервис GroqCloud и минимальную структуру под руководством нового генерального директора Симона Эдвардса.

Это различие имеет значение. Полное приобретение приведет к гораздо более строгому антимонопольному контролю для компании, которая уже контролирует около 80–90% рынка GPU для центров обработки данных. Соглашение о лицензировании с добавлением талантов дает NVIDIA большую часть преимуществ — доступ к интеллектуальной собственности, архитекторов чипов, нейтрализацию конкуренции — без регуляторного бремени.

Эта структура также переопределяет будущее Groq. На бумаге Groq остается независимым конкурентом на рынке специализированных чипов для инференса. На практике же его передовой исследовательский и опытный центр уходит, а его самая ценная технология теперь помогает укреплять защиту NVIDIA, а не ослабляет ее.

Крупные технологические компании усовершенствовали эту схему за последние два года. Соглашение Microsoft на сумму 650 миллионов долларов с Inflection AI, предполагаемая сделка Google на 2,7 миллиарда долларов с Character.AI и захват талантов Amazon у Adept следуют одной и той же модели: - Лицензировать технологии - Нанять основателей и сотрудников - Оставить ослабленный «независимый» стартап

Регуляторы по-прежнему видят поле, усеянное логотипами, но реальная конкуренция уже консолидировалась. Инвесторы получают скромные 1-1.5x прибыли вместо фантазийных 5-10x, в то время как стартапы, которые они поддержали, рискуют стать «зомби-оболочками», вынужденными сосредотачиваться на узких, неугрожающих нишах.

Этот маневр на 20 миллиардов долларов сигнализирует о том, как будет развиваться следующий этап гонки вооружений в области ИИ. Участвующие компании не всегда будут полностью выкупать своих конкурентов; они будут ослаблять их через контракты и предложения, а затем указывать на оставшиеся оболочки как на доказательство того, что рынок по-прежнему остается активным.

Анатомия корпоративного захвата

Иллюстрация: Анатомия корпоративного рейда
Иллюстрация: Анатомия корпоративного рейда

Корпоративный захват едва ли соответствует действительности. NVIDIA захватывает коронные активы Groq: Джонатана Росса, архитектора TPU, который помог определить пользовательские ИИ-чипы Google; Санни Мадру, президента, который превратил Groq в реального конкурента в области инференса; и неэксклюзивную лицензию на основную архитектуру LPU Groq. Добавьте к этому старшее техническое руководство и многолетний опыт работы с компиляторами, runtime и системами, и NVIDIA фактически покупает короткий путь через десятилетие НИОКР.

Groq, на бумаге, выживает. Сервис вывода GroqCloud продолжает работать, бренд Groq сохраняется, а упрощённая корпоративная структура остаётся независимой под новым CEO. То, что осталось, скорее похоже на артефакт соблюдения норм, чем на компанию с ростом: совет директоров, несколько инженеров и достаточно операционной мощи, чтобы не объявить об этом закрытии.

Структура сделки демонстрирует почти хирургическую точность. NVIDIA избегает громоздкости полной слияния — нет нужды консолидировать финансовые показатели, брать на себя долгосрочные обязательства или вызывать те же антимонопольные триггеры, которые привели к провалу ее запроса на приобретение Arm за 40 миллиардов долларов в 2022 году. Вместо этого она получает три актива, которые действительно имеют значение в войне за искусственный интеллект: - Ключевых специалистов - Доступ к основным интеллектуальным правам - Устранение заслуживающего доверия потенциального конкурента

Сторона Groq выглядит совершенно иначе. Инвесторы получают ликвидность через пакет лицензий и стимулов на сумму 20 миллиардов долларов, но большая часть потенциальной прибыли уходит NVIDIA вместе с Россом и его командой. То, что остается, теперь должно строить будущее без оригинального визионера, без той же самой движущей силы передовых исследований и разработок, а лучшие идеи частично становятся продуктами внутри доминирующего производителя GPU.

Назовите это переводом ценности, а не обменом ценности. Деньги движутся в одном направлении, но стратегическое преимущество движется в другом, сосредоточиваясь в уже доминирующей позиции NVIDIA с 80–90% на рынке GPU для дата-центров. Оставшаяся часть Groq обладает брендом и облачным сервисом; NVIDIA обладает талантами, влиянием на дальнейшее развитие и способностью интегрировать архитектурные преимущества Groq в свою экосистему на масштабном уровне.

План действия «Обратный аквихайр»

Назовите это обратным приобретением талантов: вместо того чтобы купить всю компанию ради людей, гигант выписывает огромный чек на лицензии, стимулы и «партнёрства», пока звёздные кадры тихо покидают компанию. Капитальная структура остаётся нетронутой на бумаге, но сама компания оказывается опустошённой. То, что выглядит как коммерческая сделка, на самом деле функционирует как скрытое приобретение умов и планов.

Традиционные acqui-hire — это грубые инструменты. Крупная компания полностью поглощает стартап, усваивает команду и либо закрывает, либо задвигает продукт. Регуляторы рассматривают это как чистую сделку M&A, советы директоров голосуют, и все подают документы. Обратные acqui-hire переворачивают этот сценарий, сохраняя акционерный капитал и корпоративный контроль технически раздельно, при этом перемещая только те активы, которые имеют значение.

Сделка Microsoft с Inflection AI в 2024 году задала современный стандарт. Microsoft заплатила около 650 миллионов долларов за лицензионное соглашение и соглашение о неконкуренции, а затем наняла соучредителей Мустафу Суламана и Карэна Симоняна, а также большинство сотрудников в новую внутреннюю AI-группу. Inflection изменила направление с потребительского AI-ассистента на гораздо меньший продукт для бизнеса, и, как сообщается, инвесторы ушли с доходом лишь около 1,1–1,5 раза от вложенных средств.

Google последовал за Character.AI в 2024 году, согласившись на предполагаемый пакет лицензирования и сотрудничества на сумму 2,7 миллиарда долларов, в то время как соучредители Ноам Шазир и Даниэль де Фритас вернулись в Google. Character.AI отклонился от разработки передовых LLM и сосредоточился на своей потребительской платформе для чатов, в то время как сделка вызвала проверку со стороны Минюста из-за подозрений о намеренном уклонении от рассмотрения слияния. Amazon предпринял аналогичные действия с Adept, наняв генерального директора Дэвида Луана и ключевых основателей, в то время как Adept вернулась к более узким «агентным» корпоративным инструментам.

Соглашение NVIDIA на сумму 20 миллиардов долларов с Grok почти идеально подходит под эту схему. Официально это лицензия на неэксклюзивные технологии вывода плюс стимулирующие выплаты, при этом Grok продолжает управлять GroqCloud под руководством нового CEO. Объявление Groq и Nvidia о подписании соглашения о лицензировании технологий вывода выглядит как партнерство; поток талантов и доступ к интеллектуальной собственности напоминают поглощение.

Мотивация остается постоянной в этих сделках. Установившие свои позиции компании хотят передовые таланты, дифференцированный интеллектуальный капитал и меньше надежных соперников, не поднимая антимонопольные тревоги или сталкиваясь с messy интеграциями. Стартапы получают «мягкую посадку» вместо распродажи с понижением оценки; венчурные капитальные инвесторы получают свои деньги назад, возможно, с небольшим премиальным приростом, но почти никогда не достигают результатов в 3-10 раз выше, чем предполагают их модели.

Почему технологии вывода Groq стали целью

Работы с ИИ делятся на две очень разные задачи. Обучение создает модель, обрабатывая массивные наборы данных на кластерах графических процессоров в течение дней или недель. Инференс использует завершенную модель миллионы или миллиарды раз в день, отвечая на запросы, ранжируя ленты или генерируя видео в реальном времени для конечных пользователей.

Тренировки привлекают внимание, но выводы приносят прибыль. Каждый ответ ChatGPT, рекомендация TikTok или вызов корпоративного помощника — это запрос на вывод, который расходует электроэнергию и время работы оборудования. С увеличением использования облачные провайдеры и гипермасштабируемые компании obsesсионируют над тем, чтобы сэкономить доли цента на каждом запросе.

Groq напрямую подошёл к этой проблеме с помощью своей архитектуры LPU (Устройство обработки языка). Вместо гибкого, массово параллельного GPU, Groq разработал детерминированный чип, управляемый компилятором, который выполняет графы ИИ как фиксированный поток данных. Отсутствие кэшей, почти полное отсутствие ветвлений и строго контролируемая память на чипе обеспечивали предсказуемуюlatency и крайне высокую пропускную способность.

В то время как графические процессоры NVIDIA совмещают обучение и вывод, Groq оптимизирован исключительно для запуска уже существующих моделей. Бенчмарки от Groq и независимых тестеров показали, что их LPU обрабатывает десятки тысяч токенов в секунду на больших языковых моделях с задержкой всего в несколько миллисекунд. Для определенных нагрузок трансформеров оборудование Groq обеспечивало больше выводов на ватт и на доллар, чем графические процессоры NVIDIA самого высокого класса для дата-центров.

Эта разница имеет значение на гипермасштабах. Если Groq сможет сократить стоимость вывода хотя бы на 30–50% для крупных клиентов, облачные платформы и крупные лаборатории ИИ получат убедительную причину для перенаправления трафика от графических процессоров NVIDIA. Каждая перенаправленная токен-строка подорвет премиум-цену на ускорителях серии H от NVIDIA в центрах обработки данных.

Бизнес-центр данных NVIDIA уже приносит валовую маржу свыше 70%, благодаря инференсу на базе GPU с моделями от OpenAI, Anthropic, Meta и других. Убедительная, независимая альтернатива с лучшей экономикой угрожала не только объёмам продаж, но и ценовой силе на всем этом рынке. Groq не нужно было "побеждать" весь рынок; ей необходимо было лишь закрепить свои позиции в переговорах.

С этой точки зрения сделка на 20 миллиардов долларов, которая включает лицензию и талант, выглядит оборонительной. NVIDIA укрепляет позиции, привлекая ключевых архитекторов Groq, получает неэксклюзивный доступ к интеллектуальной собственности LPU и ослабляет конкурента, способного вызвать ценовые потрясения, прежде чем гипермасштабные компании смогут превратить Groq в значительное конкурентное преимущество против ее бизнеса по производству GPU для центров обработки данных.

Делатель королей: Почему важен Джонатан Росс

Иллюстрация: Король, создающий королей: Почему Джонатан Росс важен
Иллюстрация: Король, создающий королей: Почему Джонатан Росс важен

Джонатан Росс находится в центре этой сделки, как гравитационная яма. В качестве главного архитектора первого TPU Google он помог начать современную эпоху пользовательских AI-ускорителей, доказав, что гипермасштабные компании не должны зависеть исключительно от стандартных GPU. TPU v1, анонсированный в 2016 году, обеспечивал производительность до 30-80 раз лучше на ватт для задач вывода по сравнению с современными CPU, что изменило внутреннюю экономику Google для поиска, перевода и рекламы.

Groq был ответом Росса на ограничения, которые он увидел в первой волне ИИ-силикона. В то время как TPU и GPU все еще пытаются справляться со сложными потоками инструкций и иерархиями памяти, архитектура Groq, LPU, преследовала однозначный детерминизм: один гигантский, статически запланированный движок потоковой передачи данных, который мог перебрасывать токены через языковые модели с оглушительной, предсказуемой скоростью. Демо Groq регулярно показывали вывод LLM, измеряемый в сотнях тысяч токенов в секунду, с задержкой такой стабильной, что она выглядела как прямая линия.

Росс охарактеризовал Groq как «ориентированный на вывод» в мире, одержимом обучением TOPS. Обучение привлекает заголовки; вывод оплачивает счета за облачные услуги. Оптимизируя для задач с размером партии один, с низкой задержкой — тех самых, что стоят за чат-ботами, копилотами и реальными агентами — Groq стремился обойти универсальные ускорители и превратить вывод в собственную категорию аппаратного обеспечения. Предложение LPU: меньше регулировок, больше пропускной способности, меньше колебаний.

Привлечение Росса к команде NVIDIA является стратегическим успехом. Компания уже доминирует на рынке графических процессоров для дата-центров, и по оценкам её доля составляет 80-90% рынка, но она все еще придерживается мировоззрения, ориентированного на графические процессоры. Привлечение инженера, который доказал жизнеспособность как TPU, так и LPU, дает NVIDIA портфель парадигм: GPU для гибкости, DPU для сетевого взаимодействия и теперь мышление по поводу чипов для вывода класса Росс, что укрепляет её позиции.

За финансовой инженерией скрывается грубая реальность: война за аппаратное обеспечение ИИ — это борьба за крошечный круг людей. Архитекторов, которые разработали процессоры для ИИ мирового уровня — класс TPU, класс Cerebras, класс Groq, — можно пересчитать на пальцах одной руки. Когда NVIDIA выписывает чек на 20 миллиардов долларов для лицензий и стимулов, она покупает не просто интеллектуальную собственность; она закрепляет за собой один из тех редких умов, прежде чем конкурирующая облачная компания или государственная программа чипов это сделает.

Непроницаемая программная защита Nvidia

CUDA, а не графические процессоры, построила настоящую крепость NVIDIA. Запущенная в 2007 году, CUDA превратила графические чипы в универсальные параллельные компьютеры и предоставила исследователям стабильную модель программирования задолго до того, как термин «ускоритель ИИ» стал модным слоганом для привлечения финансирования. Семнадцать лет спустя почти каждый фреймворк глубокого обучения, от PyTorch до TensorFlow, рассматривает CUDA как стандартную цель.

Эта ранняя ставка создала жесткую зависимость от пути. Как только тысячи лабораторий, исследователей и стартапов начали создавать ядра, учебники и курсы вокруг CUDA, каждый новый проект получил мощный стимул остаться в этой экосистеме. Каждая новая статья, оптимизированная под CUDA, репозиторий на GitHub или ноутбук Kaggle усиливали выбор следующей команды.

Сетевые эффекты теперь охватывают весь стек ИИ. Университеты обучают "программированию на GPU", имея в виду CUDA; бесчисленные онлайн-курсы и учебники включают код CUDA. Открытые библиотеки, такие как cuDNN, NCCL и TensorRT, используются в производственных системах Google, Meta, OpenAI и практически всех облачных провайдеров.

Переход на другую платформу означает больше, чем просто перекомпиляцию. Серьезный выход из CUDA требует: - Переписывания или замены тысяч пользовательских ядер - Обучения инженеров и пересмотра процессов найма - Переутверждения моделей и инфраструктуры для новых инструментов разработки

Для гипермасштабируемой компании, тратящей миллиарды ежегодно на NVIDIA H100 и H200, это многолетняя миграция на сотни миллионов долларов. Даже для хорошо профинансированного стартапа переход на конкурирующий стек, такой как ROCm, или на индивидуальный SDK может замедлить дорожные карты продуктов и нарушить соглашения по уровням обслуживания (SLA) с клиентами.

Архитектурно превосходное оборудование все равно сталкивается с этой преградой. Чипы на вафлях Cerebras, LPU от Groq и волна ASIC для вывода могут показывать потрясающие результаты, но им либо нужно эмулировать CUDA, поддерживать CUDA через слои трансляции, либо убедить разработчиков учить еще один низкоуровневый API. Каждый уровень косвенности добавляет задержки, сложности или недостающие функции.

Тем временем NVIDIA продолжает углублять свою нишу. CUDA теперь охватывает вертикальные области: cuQuantum для физики, cuOpt для логистики, cuGraph для аналитики, а также тесную интеграцию с Kubernetes, Slurm и крупнейшими облачными платформами. Каждая новая библиотека снижает пространство, где альтернативы могут отличаться.

Вот почему сделки, такие как покупка Nvidia активов стартапа по производству ИИ-чипов Groq за около $20 миллиардов в самой крупной сделке в истории компании, имеют меньшее значение для сырого кремния и большее значение для того, кто следующий подключится к CUDA. Конкуренты борются не только за чипы; они сражаются с 17-летним океаном программного обеспечения.

Последний оставшийся чип? Гамбит Cerebras

Cerebras находится в стремительно сокращающемся круге независимых стартапов по производству ИИ-афин, которые еще не были поглощены гипермасштабными компаниями или гигантами GPU. В то время как Groq, Habana Labs и Nervana Systems превратились в оболочки или были поглощены, Cerebras Systems движется к IPO и остается структурно независимой, поддерживаемой сотнями миллионов венчурных инвестиций и государственными контрактами.

Вместо того чтобы следовать планам NVIDIA в области графических процессоров, компания Cerebras создала процессор размером с обеденную тарелку, называемый Wafer-Scale Engine. Третья версия чипа вырезает целую кремниевую подложку диаметром 300 мм в одно устройство, упаковывая сотни тысяч ядер и устраняя паутину соединений PCIe и мостов NVLink, которые обычно связывают стойки графических процессоров.

Традиционные GPU-кластеры теряют производительность, пересекая тензоры между картами и узлами; дизайн Cerebras удерживает всё на одной кремниевой пластине. Сократив межчиповую коммуникацию с помощью маршрутизации на кристалле, компания утверждает, что добилась значительных приростов в пропускной способности, задержке и использовании для больших моделей, которые иначе тратят время в ожидании передачи данных.

Вместо того чтобы противостоять CUDA на её родной территории, Cerebras выбрала направления, где привязанность к экосистеме имеет меньшее значение: национальные лаборатории, оборона и проекты суверенного ИИ. Клиенты, такие как лаборатории Аргонна, Лоуренса Ливермора и Сандиа, гораздо больше беспокоятся о чистом пропускной способности, локальности данных и контроле на месте, чем о том, как операции PyTorch соотносятся с ядром GPU.

Эти покупатели уже используют специализированные рабочие нагрузки — климатические модели, ядерные симуляции, классифицированные языковые системы — поэтому перенос кода на новый ускоритель выглядит как незначительная ошибка по сравнению с приростами производительности и безопасности. Cerebras продает полные системы CS-3 в виде устройств, фактически являющихся суперкомпьютерами в кабинете, посвященными обучению ИИ и высокопроизводительным вычислениям.

Чтобы обойти препятствия CUDA для всех остальных, Cerebras активно внедряет модель Inference-as-a-Service. Вместо того чтобы просить разработчиков переписывать ядра, она предоставляет хостинг-API, куда вы отправляете запросы и получаете токены в ответ, сохраняя ту же базовую абстракцию, что и OpenAI или Anthropic.

Этот API-уровень превращает аппаратное обеспечение на уровне пластины в деталь реализации. Предприятия покупают гарантии задержки, пропускной способности и размещения данных, в то время как Cerebras тихо заменяет свои чипы под капотом, избегая необходимости выигрывать войну инструментов для разработчиков, в которой уже доминирует NVIDIA.

Силикон против программного обеспечения: настоящая арена боя

Иллюстрация: Кремний против ПО: настоящая битва на поле боя
Иллюстрация: Кремний против ПО: настоящая битва на поле боя

Силиконовые инноваторы продолжают наталкиваться на один и тот же айсберг: гравитацию программного обеспечения. Cerebras может производить вафлю размером с обеденную тарелку с 2 триллионами транзисторов и полосой пропускания в петабайтах в секунду, но ей всё равно приходится уговаривать разработчиков отказаться от скриптов PyTorch, которые уже работают на графических процессорах NVIDIA с одной единственной настройкой.

История показывает, как это обычно заканчивается. Betamax обеспечивал лучшее качество видео, чем VHS, но VHS победил, потому что студии, прокатные магазины и производители оборудования стандартизировались на нём. Технически элегантная Mac OS и процессоры PowerPC уступили в 90-х Windows на бежевых x86-коробках, потому что разработчики следовали за большей базой установок и богатым набором инструментов.

Мобильные технологии повторили эту закономерность. WebOS и BlackBerry 10 представили системы многозадачности и жестов, опередившие свое время, однако iOS и Android их потеснили, предложив: - Большие магазины приложений - Лучшие SDK и документацию - Более предсказуемую монетизацию

Искусственный интеллект теперь находится на том же перекрестке. Cerebras, Groq и Tenstorrent продвигают новые архитектуры — вафельные масштабируемые двигатели, LPU, RISC-V акселераторы, в то время как NVIDIA делает ставку на CUDA, cuDNN, TensorRT и тесную интеграцию с PyTorch/TensorFlow. Одна сторона продает сырой производительность FLOPs и умные компоновки; другая предлагает почти безупречный путь от научной работы к производственному кластеру.

Разработчики оптимизируют время до результата, а не теоретическую элегантность. Если аспирант может взять модель с открытым исходным кодом, установить несколько пакетов и за полдня достичь 90% от пиковой производительности на H100, то альтернатива должна быть значительно лучше, чтобы оправдать новые инструментарии, отладчики и рабочие процессы развертывания. “В 2 раза быстрее” на бумаге часто уступает “работает с нашей существующей CI-пайплайном.”

Интероперабельность становится оружием. Стек NVIDIA охватывает: - CUDA на уровне ядра - cuDNN и cuBLAS для примитивов - TensorRT и Triton Inference Server для развертывания - DGX и DGX Cloud для готовых кластеров

Эта вертикальная интеграция означает, что каждое новое фреймворк, от JAX до Mojo, рассматривает CUDA как целевую платформу по умолчанию. Конкурирующий силикон должен эмулировать эту среду или создавать параллельную вселенную инструментов, драйверов и библиотек — это огромная нагрузка как для поставщиков, так и для пользователей.

Доминирование на рынке ИИ будет зависеть не столько от того, кто выпустит самую необычную микросхему, сколько от того, кто владеет разработкой технологического стека от начала до конца. Увеличение скорости работы чипов имеет значение, но контроль над компиляторами, средами выполнения, оркестрацией и интеграцией в облако определяет, где будут обучены и развернуты следующие миллионы моделей.

Цена очищенной доски

Консолидация рынка аппаратного обеспечения для ИИ больше не выглядит абстрактной; это похоже на очищенную шахматную доску. NVIDIA уже контролирует примерно 80–90% рынка графических процессоров для дата-центров, и сделки вроде 20-миллиардной сделки с Groq тихо стирают одну из немногих оставшихся независимых фигур, не вызывая классических антимонопольных триггеров.

Структуры обратного аквихайринга создают пугающий новый стандарт для амбициозных основателей аппаратного обеспечения. Если наилучший сценарий "выхода" — это возврат 1–1.5x и медленное погружение в статус "зомби-стартапа", то рациональным шагом для венчурного капитала будет финансирование программного обеспечения на базе CUDA, а не соперничающего кремния, который может быть хирургически обескуражен, прежде чем вообще станет угрозой для NVIDIA.

Этот сдвиг имеет значение, поскольку оборудование для ИИ требует значительных капиталовложений и медленно становится зрелым. Семь лет и сотни миллионов долларов могут закончиться следующим: - Извлечение основной команды - Лицензирование интеллектуальной собственности - Бренд, оставленный в виде приманки

Для основателей этот план сужает окно Овертона для того, что можно считать «финансируемым» оборудованием. Зачем поддерживать еще одну Groq или Habana Labs, если наиболее вероятный исход — это согласительная капитуляция перед действующим игроком, а не независимое IPO, к которому стремится Cerebras со своим вафельным масштабным двигателем?

Потребители и предприятия в конечном итоге платят цену. Меньшее количество надежных конкурентов ведет к более высоким ценам на ускорители, более длинным спискам ожидания на мощности и более глубокой зависимости от поставщиков в экосистеме CUDA, системах DGX и облачных партнерах NVIDIA, от Amazon до Oracle.

Как только передовые научно-исследовательские разработки стартапа поглощены, оставшаяся оболочка редко продвигает рынок вперед. GroqCloud может продолжать предоставлять услуги по выводу вывода, но без Джонатана Росса и оригинальной команды его шансы на разработку прорывного LPU следующего поколения стремительно снижаются.

Регуляторы видят рынок, который по-прежнему кажется переполненным: Groq все еще существует, Cerebras все еще продает оборудование, облачные провайдеры разрабатывают чипы самостоятельно. Тем не менее, фактическая угроза конкуренции — команды и интеллектуальная собственность, которые могут подорвать маржу NVIDIA или ослабить защиту CUDA, тихо перемещаются в собственные разработки.

Ковер "NVIDIA «Приобретает» Groq" передает этот фокус: иллюзия конкуренции остается на бумаге, в то время как реальные игровые фигуры объединяются под одним логотипом. Доска кажется занятой, но исход становится все более предсказуемым.

Можно ли сломать власть Nvidia?

Захват NVIDIA на рынке аппаратного обеспечения для ИИ выглядит абсолютным: 80–90% ускорителей для дата-центров, 17-летний стек CUDA и теперь эффективный контроль над лучшими идеями Groq. Однако монополии в сфере технологий редко остаются бесспорными навсегда; они разрушаются с краев, обычно через программное обеспечение.

Надежная, открытая альтернатива CUDA появится первой. Назовите это «Linux для ИИ»: объединённый, открытый стек для обучения и вывода, который эффективно работает на любом оборудовании — ЦП, ТПУ, специализированных АСИКах, даже на необычных устройствах, таких как чіп Cerebras. Некоторые составляющие уже существуют: PyTorch, JAX, Triton, MLIR, TVM, ROCm, oneAPI.

Чтобы это имело значение, гипермасштабируемые компании должны договориться. Представьте себе, что Google, Amazon, Microsoft и Meta согласны на общую низкоуровневую среду выполнения и библиотеку ядра, а затем поставляют её повсюду: в своих облаках, на локальных устройствах, даже в edge-устройствах. Если разработчики смогут ориентироваться на один открытый стек и получать первоклассную производительность на процессорах, не использующих NVIDIA, зависимость от CUDA начинает выглядеть как налог, а не как стандарт.

Гипермасштабные компании также имеют все финансовые причины сократить зависимость. Обучение передовых моделей на кластерах H100 и B200 обходится в миллиарды долларов в год по капитальным затратам и электроэнергии. Ускорители Google TPU v5e, AWS Trainium и Inferentia, а также Maia от Microsoft созданы по одной причине: вернуть часть маржи от более чем 70%-ной валовой прибыли NVIDIA.

Эти внутренние чипы по-прежнему сильно опираются на абстракции эры CUDA — XLA, настраиваемые компиляторы и слои трансляции, которые заставляют их "ощущаться" как графические процессоры для разработчиков. Общий открытый стек позволит гипермасштабируемым компаниям заменять свои собственные кремнии без переписывания каждой модели, одновременно ведя переговоры о более выгодных ценах с NVIDIA, поскольку у них появятся реальные варианты выхода.

Регуляторы остаются в тени как грубый инструмент. Министерство юстиции США уже заблокировало сделку NVIDIA по покупке Arm на сумму 40 миллиардов долларов в 2022 году и исследует аналогичные структуры "обратного приобретения кадров" в Google. Мир, в котором NVIDIA контролирует доминирующее оборудование, доминирующее программное обеспечение и интеллектуальную собственность любых серьезных соперников, кажется созданным для антимонопольного контроля.

Антимонопольные действия редко способствуют разработке лучшей технологии, но они могут обеспечить время. Для Cerebras, остатков Groq и следующей волны стартапов в области чипов это временное пространство может стать единственным шансом создать что-то достаточно мощное, чтобы конкурировать с гравитационным колодцем CUDA.

Часто задаваемые вопросы

Насколько известно, Nvidia не покупала Groq за 20 миллиардов долларов.

Нет. Nvidia структурировала сделку на $20 миллиардов для неэксклюзивной лицензии на технологии и найма ключевых специалистов Groq, включая его основателя. Groq остается технически независимой компанией, но ее основная ценность была извлечена.

Что такое 'обратная аквихайр'?

Это стратегия, при которой крупная компания нанимает ключевых специалистов и лицензирует интеллектуальную собственность стартапа без официального приобретения. Это позволяет избежать регуляторного контроля и нейтрализовать потенциального конкурента, часто оставляя стартап в виде «зомби»-оболочки.

Почему Groq считался угрозой для Nvidia?

Groq специализировалась на высокоскоростной, низколатентной ИИ-инференции с помощью своей уникальной архитектуры LPU (Language Processing Unit). Эта технология могла бы бросить вызов доминированию Nvidia на все более важном рынке инференции.

Кто такой Джонатан Росс и почему он важен?

Джонатан Росс является основателем компании Groq и оригинальным архитектором TPU (Tensor Processing Unit) от Google. Нанимая его, Nvidia приобрела одного из лучших дизайнеров AI-чипов в мире, тем самым предотвращая конкурентов от использования его экспертизы.

Frequently Asked Questions

Можно ли сломать власть Nvidia?
Захват NVIDIA на рынке аппаратного обеспечения для ИИ выглядит абсолютным: 80–90% ускорителей для дата-центров, 17-летний стек CUDA и теперь эффективный контроль над лучшими идеями Groq. Однако монополии в сфере технологий редко остаются бесспорными навсегда; они разрушаются с краев, обычно через программное обеспечение.
Что такое 'обратная аквихайр'?
Это стратегия, при которой крупная компания нанимает ключевых специалистов и лицензирует интеллектуальную собственность стартапа без официального приобретения. Это позволяет избежать регуляторного контроля и нейтрализовать потенциального конкурента, часто оставляя стартап в виде «зомби»-оболочки.
Почему Groq считался угрозой для Nvidia?
Groq специализировалась на высокоскоростной, низколатентной ИИ-инференции с помощью своей уникальной архитектуры LPU . Эта технология могла бы бросить вызов доминированию Nvidia на все более важном рынке инференции.
Кто такой Джонатан Росс и почему он важен?
Джонатан Росс является основателем компании Groq и оригинальным архитектором TPU от Google. Нанимая его, Nvidia приобрела одного из лучших дизайнеров AI-чипов в мире, тем самым предотвращая конкурентов от использования его экспертизы.
🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts