Nvidiaの200億ドルのトロイの木馬

Nvidiaは単にGroqを200億ドルで買収したわけではなく、主要なライバルを無力化する巧妙な企業戦略を実行しました。これは、大手テクノロジー企業がAI戦争に勝つ方法を再定義する取引の物語です。

Stork.AI
Hero image for: Nvidiaの200億ドルのトロイの木馬
💡

TL;DR / Key Takeaways

Nvidiaは単にGroqを200億ドルで買収したわけではなく、主要なライバルを無力化する巧妙な企業戦略を実行しました。これは、大手テクノロジー企業がAI戦争に勝つ方法を再定義する取引の物語です。

200億ドルの詐欺

「NVIDIAが20億ドルでGroqを『買った』」という見出しは非常に目を引くが、本質を見誤っている。これは一方の企業がもう一方に消えていくようなクリーンな買収ではない。これは、慎重に設計された非独占ライセンス契約と大規模な人員移動が組み合わさったものだ。

NVIDIAはGroqの企業の外枠を所有していません。代わりに、Groqの高スループット推論技術のライセンスを取得し、創業者のジョナサン・ロス、社長のサニー・マドラ、そして重要な数の上級エンジニアを引き抜きます。Groqはブランド、GroqCloudサービス、そして新CEOのサイモン・エドワーズの下で最小限の構造を維持します。

その区別は重要です。完全な買収は、すでに推定データセンターGPU市場の80~90%をコントロールしている企業に対して、より厳しい独占禁止法の監視を招くことになります。一方、ライセンス+人材契約は、NVIDIAにとってほとんどの動機を与えます—IPアクセス、チップアーキテクト、競争の中立化といった利点を、規制の負担なしに得ることができます。

この構造は、Groqの未来も再構築します。表面的には、Groqは専門的な推論チップにおける独立した競争相手のままですが、実際には、その最前線の研究開発の核が外に出て行き、最も貴重な技術がNVIDIAの強みを強化する助けとなり、むしろそれを削ることはありません。

ビッグテックは、過去2年間でこのプレイブックを洗練させてきました。マイクロソフトの6億5000万ドルのインフレクションAIとの契約、グーグルの報告されている27億ドルのCharacter.AIを巡る取引、そしてアマゾンのアデプトからの人材獲得は、すべて同じパターンに従っています: - 技術をライセンスする - 創業者やスタッフを雇う - 弱体化した「独立した」スタートアップを残す

規制当局は依然としてロゴが点在する分野を見ていますが、実際の競争はすでに統合されています。投資家は5~10倍のベンチャーの幻想ではなく、 modestな1~1.5倍のリターンを得る一方で、支援したスタートアップは狭く、脅威にならないニッチに追い込まれ、「ゾンビシェル」になるリスクを抱えています。

この200億ドルの戦略は、AI競争の次のフェーズがどのように進行するかを示しています。現職企業は常に競合を買収するわけではなく、契約やオファーシートを通じて彼らを弱体化させ、その後、残った外見を市場が依然として活気がある証拠として示すでしょう。

企業襲撃の解剖学

イラスト:企業乗っ取りの解剖
イラスト:企業乗っ取りの解剖

企業の乗っ取りといっても過言ではありません。NVIDIAはGroqの貴重な資産を手に入れました:GoogleのカスタムAIチップを定義する手助けをしたTPUアーキテクトジョナサン・ロス、Groqを実際の推論候補にするために尽力した社長サニー・マドラ、そしてGroqのコアLPUアーキテクチャへの非独占ライセンス。さらに、上級技術リーダーシップや数年にわたるコンパイラ、ランタイム、システムの経験を加えれば、NVIDIAは実質的に10年分の研究開発を短縮して手に入れることになります。

Groqは、表面的には生き残っています。GroqCloud推論サービスは稼働し続け、Groqブランドは存続し、簡素化された企業体は新しいCEOの下で独立しています。しかし、残されているものは成長企業というよりもコンプライアンスの成果物に近いものです:取締役会、いくつかのエンジニア、そしてこの状況をシャットダウンとは呼ばないための十分な運営力です。

取引構造はほぼ外科的な精度を示しています。NVIDIAは完全合併の混乱を回避し、財務を統合する必要もなく、長期的な負債を引き受けることもなく、2022年に40億ドルのArm買収を阻んだ同じ独占禁止法の引っ掛かりを引き起こすこともありません。その代わりに、AIハードウェア戦争で実際に重要な3つの資産を手に入れます: - キーピープル - 中核的なIPへのアクセス - 信頼できる将来の競争相手の排除

Groqの側は非常に異なる様相を呈しています。投資家は200億ドルのライセンスとインセンティブパッケージを通じて流動性を得ますが、大部分の利益はロス氏とそのチームと共にNVIDIAに流れてしまいます。残された者たちは、元のビジョナリーなしで、同じフロンティアR&Dエンジンなしで、そして、最良のアイデアが支配的なGPUベンダーの内部で部分的に商品化された状態で、未来を築かなければなりません。

それを価値の移転と呼びましょう、価値の交換ではありません。お金は一方向に流れますが、戦略的なレバレッジは反対側に流れ、NVIDIAのすでに支配的な80〜90%のデータセンターGPUポジションに集中します。Groqの残る事業体はブランドとクラウドサービスを持っていますが、NVIDIAは才能、ロードマップの影響力、そしてGroqのアーキテクチャの利点を自社のエコシステムに大規模に取り込む能力を持っています。

「リバースアクイハイア」プレイブック

それを逆アクイハイヤーと呼ぼう。人材を得るために企業全体を買収する代わりに、大企業はライセンス、インセンティブ、そして「パートナーシップ」のために巨額の資金を支払う一方で、スタータレントは静かに企業を去っていく。キャップテーブルは名目上はそのまま残るが、実際の企業は内部が空洞化していく。商業的な取引に見えるものが、頭脳と設計図の隠れた買収として機能する。

従来のアクイハイアは粗野な手法です。大企業がスタートアップを完全に買収し、チームを吸収して、製品を中止または埋めてしまいます。規制当局はクリーンなM&A取引と見なし、取締役会が投票を行い、全員が書類を提出します。一方、リバースアクイハイアはその筋書きを逆転させ、技術的に株式と企業統制を分離しつつ、重要な資産だけを移転します。

マイクロソフトの2024年のインフレクションAIとの契約は、現代的なテンプレートを確立しました。マイクロソフトは、おおよそ6億5000万ドルをライセンス契約と非競争契約のために支払い、共同創設者のムスタファ・スレイマン氏、共同創設者のカレン・シモニャン氏、そしてほとんどのスタッフを新しい社内AIグループに採用しました。インフレクションは、消費者向けAIアシスタントからはるかに小規模なエンタープライズ製品に pivot し、投資家は資本に対して約1.1〜1.5倍だけのリターンを得たと報じられています。

2024年、GoogleはCharacter.AIに続き、推定27億ドルのライセンスおよび協力パッケージに合意し、共同創設者のノアム・シャゼールとダニエル・デ・フレイタスがGoogleに戻りました。Character.AIはフロンティアLLMの構築から消費者向けチャットプラットフォームに焦点を移し、この取引は合併審査を意図的に回避したかどうかについて司法省の調査を引き起こしました。AmazonはAdeptと同様の戦略を展開し、CEOのデイビッド・ルアンと主要な創設者を雇いながら、Adeptはより狭い「エージェンティック」な企業向けツールに退行しました。

NVIDIAの200億ドルのGrokとの契約は、そのパターンにほぼ完璧に一致します。公式には、非独占的な推論技術ライセンスとインセンティブを含んでおり、Grokは新しいCEOの下でGrokCloudを運営し続けます。GrokとNvidiaが非独占的な推論技術ライセンス契約を締結という発表はパートナーシップのように見えますが、才能の流れや知的財産へのアクセスは買収のように見えます。

モチベーションはこれらの取引を通じて一貫しています。 incumbentsは、フロンティアの才能、差別化された知的財産、そして信頼できる競争相手の少なさを求めていますが、反トラストの警報を鳴らしたり、煩雑なフルスタックの統合に悩まされたくはありません。スタートアップは、ダウンラウンドの火 saleの代わりに「ソフトランディング」を得て、VCは資金を回収し、場合によっては小さなプレミアムを得ることができますが、モデルが前提とする3~10倍の成果を得ることはほとんどありません。

なぜGroqの推論技術が標的となったのか

AIの作業は、非常に異なる二つの仕事に分かれます。トレーニングはモデルを構築し、何日も何週間もかけてGPUのクラスターを使用して膨大なデータセットを処理します。インファレンスは完成したモデルを1日に何百万回、何十億回も実行し、プロンプトに応答したり、フィードをランク付けしたり、エンドユーザーのためにリアルタイムで動画を生成したりします。

トレーニングは注目を集めますが、推論は利益を生み出します。すべてのChatGPTの応答、TikTokの推薦、またはエンタープライズ用コーパイロットの呼び出しは、電力とハードウェアサイクルを消費する推論リクエストです。使用が急増する中、クラウドプロバイダーやハイパースケーラーは、各クエリから数分の一セントを削減することに obsessionしています。

Groqはその問題に直接取り組むために、LPU(言語処理ユニット)アーキテクチャを導入しました。柔軟で大規模な並列処理が可能なGPUの代わりに、GroqはAIグラフを固定データフローパイプラインのように処理する決定論的なコンパイラ駆動型チップを構築しました。キャッシュなし、ほとんど分岐なし、厳密に制御されたオンチップメモリにより、予測可能なレイテンシと非常に高いスループットが実現されました。

NVIDIAのGPUがトレーニングと推論を両立させる一方で、Groqは既存のモデルを動かすことに最適化されています。Groqおよび独立したテスターからのベンチマークによると、同社のLPUは大規模言語モデルで毎秒数万トークンを処理し、レイテンシは1桁ミリ秒に達しました。特定のトランスフォーマーのワークロードにおいて、Groqのハードウェアは、最上級のNVIDIAデータセンターGPUよりも、ワットあたりおよびドルあたりの推論数を多く提供しました。

その違いはハイパースケールでは重要です。もしGroqが主要顧客向けに推論コストを30〜50%削減できれば、クラウドプラットフォームや大規模なAIラボはNVIDIAのGPUからトラフィックを逸らす十分な理由を持つことになります。逸らされたトークンストリームは、データセンターにおけるNVIDIAのHシリーズアクセラレーターのプレミアム価格を圧迫することになるでしょう。

NVIDIAのデータセンター事業は、OpenAI、Anthropic、Metaなどのモデルを基にしたGPUインファレンスによって、すでに70%以上の粗利を上げています。より良い経済性を持つ信頼性の高い独立した代替手段は、単なる販売数だけでなく、そのスタック全体の価格力にも脅威を与えました。Groqは市場全体で「勝つ」必要はなく、交渉の基盤を築くだけで十分でした。

その視点から見ると、200億ドルのライセンス+人材契約は防御的に見えます。NVIDIAはGroqの主要なアーキテクトを確保し、LPUのIPに対する非独占的な支配を得て、ハイパースケーラーがGroqをデータセンターのGPUフランチャイズに対する重要なてこに変える前に、コストを攪乱する競合を鈍らせます。

キングメーカー:なぜジョナサン・ロスが重要なのか

イラスト:キングメーカー:ジョナサン・ロスが重要な理由
イラスト:キングメーカー:ジョナサン・ロスが重要な理由

ジョナサン・ロスは、この取引の中心に重力井戸のように座っています。Googleの初代TPUの主任設計者として、彼はカスタムAIアクセラレーターの現代の時代を切り開き、ハイパースケーラーがコモディティGPUに依存する必要がないことを証明しました。2016年に発表されたTPU v1は、推論ワークロードにおいて当時のCPUよりも最大30倍から80倍の性能あたりのワット数を実現し、Googleの検索、翻訳、広告の内部経済を再構築しました。

Groqは、ロスが最初のAIシリコンの波の中に見た限界に対する答えでした。TPUやGPUが依然として複雑な命令ストリームとメモリ階層を扱う中、GroqのLPUアーキテクチャは単一の決定論を追求しました。それは、巨大で静的にスケジュールされたデータフローエンジンであり、トークンを言語モデルにスピーディーかつ予測可能な速さで押し込むことができました。Groqのデモでは、LLMの推論が1秒あたり数十万トークンで測定され、レイテンシが非常に安定しているため、まるで平坦な線のように見えました。

ロスは、トレーニングが話題を提供する一方で、推論がクラウドの費用を支払うことに焦点を当てて、グロックを「推論優先」と位置づけました。一括サイズ1、低遅延のワークロード—チャットボットやコパイロット、リアルタイムエージェントの背後にあるもの—に最適化することで、グロックは汎用アクセラレータを飛び越え、推論を専用ハードウェアカテゴリに変えようとしました。LPUの提案は:調整レバーを減らし、スループットを増やし、ジッターを減らすことです。

NVIDIAがロスをテント内に引き入れたことは、戦略的な勝利に相当します。同社はすでにデータセンター向けGPUの市場で80~90%のシェアを誇っていますが、依然としてGPU優先の視点に依存しています。TPUとLPUの両方を実現可能であることを証明したエンジニアを迎え入れることで、NVIDIAは柔軟性のためのGPU、ネットワーキングのためのDPU、そして今やロスモデルによる推論シリコン思考を持つポートフォリオを構築し、地位を強化することができます。

金融工学の裏には、厳しい現実がある。AIハードウェア戦争は、限られた人々の中での戦いだ。世界クラスのAIアクセラレータ—TPUクラス、セレブラスクラス、グロクラス—を出荷したアーキテクトを数えるのは、数十人の手で足りるかもしれない。NVIDIAが200億ドルの小切手をライセンスやインセンティブのために出すとき、それは単に知的財産を購入しているのではなく、ライバルのクラウドや国家のチッププログラムが手を出す前に、その希少な才能を押さえ込もうとしているのだ。

Nvidiaの破ることのできないソフトウェアの堀

CUDAこそがNVIDIAの本当の要塞を築いた。2007年に登場したCUDAは、グラフィックスチップを汎用の並列コンピュータに変え、「AIアクセラレーター」が資金調達の話題になるずっと前から研究者に安定したプログラミングモデルを提供した。17年後、PyTorchからTensorFlowに至るまで、ほぼすべての深層学習フレームワークがCUDAをデフォルトのターゲットとして扱っている。

その初期の賭けは過酷なパス依存性を生み出しました。何千ものラボ、研究者、スタートアップがCUDAに関するカーネル、チュートリアル、教材を作成すると、すべての新しいプロジェクトはその宇宙にとどまる強力なインセンティブを持つことになりました。追加のCUDA最適化された論文、GitHubリポジトリ、Kaggleノートブックが次のチームの選択をさらに強化しました。

ネットワーク効果は現在、AIスタック全体に広がっています。大学では「GPUプログラミング」を教えていますが、それはCUDAを指しています。無数のMOOCや教科書にCUDAコードが埋め込まれています。cuDNN、NCCL、TensorRTなどのオープンソースライブラリは、Google、Meta、OpenAI、そしてほぼすべてのクラウドプロバイダーの生産システムの下に存在しています。

切り替えは再コンパイル以上の意味があります。真剣なCUDAの終了には以下が必要です: - 数千のカスタムカーネルの書き換えまたは置き換え - エンジニアの再教育と採用パイプラインの見直し - 新しいツールチェーンのためのモデルとインフラの再検証

数十億ドルをNVIDIA H100やH200に年間投資しているハイパースケーラーにとって、それは数年にわたる数億ドル規模の移行です。十分な資金を持つスタートアップであっても、ROCmや特注のSDKといった競合スタックへの移行は、製品ロードマップを遅らせ、顧客のSLAを破る可能性があります。

建築的に優れたハードウェアでも、この壁にはぶつかります。Cerebrasのウエハースケールエンジン、GroqのLPU、そして一連の推論ASICは驚くべきベンチマークを達成できますが、CUDAをエミュレートするか、翻訳レイヤーを介してCUDAをサポートするか、または開発者にさらに別の低レベルAPIを学ばせる必要があります。すべての間接層が遅延、複雑さ、または不足している機能を追加します。

一方、NVIDIAはその堀をさらに深めています。CUDAは今や垂直分野に広がっています:物理学向けのcuQuantum、物流向けのcuOpt、分析向けのcuGraph、さらにKubernetes、Slurm、すべての主要なクラウドとの緊密な統合があります。新しいライブラリが追加されるたびに、代替手段が差別化できる範囲が狭まります。

それが、NvidiaがAIチップスタートアップGroqの資産を約200億ドルで購入するという、過去最大の取引が、生のシリコンよりも次にCUDAに接続するのが誰かにとって重要である理由です。競合他社は単にチップと戦っているのではなく、17年の歴史を持つソフトウェアの海と戦っているのです。

最後のチップが立っている?セレブラステクノロジーズの賭け

Cerebrasは、既にハイパースケーラーやGPUの巨人に統合されていない独立したAIシリコンスタートアップの急速に減少する分野に位置しています。Groq、Habana Labs、Nervana Systemsは結局、空の殻か吸収された資産となった一方で、Cerebras SystemsはIPOに向けて進み、構造的に独立したまま、数億ドルのベンチャー資金と政府契約に支えられています。

NVIDIAのGPUプレイブックを追いかけるのではなく、Cerebrasは文字通りディナープレートサイズのプロセッサであるウェハースケールエンジンを開発しました。このチップのバージョン3は、300 mmのシリコンウェハを1つのデバイスに切り出し、数十万のコアを詰め込み、通常はGPUラックをつなぐPCIeリンクやNVLinkブリッジの蜘蛛の巣のような構造を排除しています。

従来のGPUクラスターは、カードやノード間でテンソルを移動させる際にパフォーマンスを消費しますが、Cerebrasの設計ではすべてを1つのウェハ上に保持します。チップ間通信をダイ内ルーティングに統合することで、同社はデータ移動を待つサイクルを浪費することなく、大規模モデルにおいて帯域幅、遅延、および利用率の大幅な向上を主張しています。

CUDAの本拠地で戦うのではなく、Cerebrasはエコシステムのロックインが重要でない場所、すなわち国立研究所、国防、そして主権AIプロジェクトに進出しました。アルゴンヌ、ローレンス・リバモア、サンディア国立研究所のような顧客は、PyTorchの操作がGPUカーネルにクリンにマッピングされるかどうかよりも、生のスループット、データのローカリティ、オンプレミスのコントロールをはるかに重視しています。

これらのバイヤーはすでに特注のワークロード—気候モデル、核シミュレーション、機密言語システム—を運用しているため、新しいアクセラレーターへのコード移植は、パフォーマンスとセキュリティ向上に対しては小さな誤差に過ぎないように見えます。セレブラスは、AIおよびHPCトレーニング専用のスーパコンピュータとして、CS-3システムをアプライアンスとして販売しています。

CUDAの障壁を克服するために、Cerebrasはインフェレンス・アズ・ア・サービスモデルに力を入れています。開発者にカーネルの書き直しを求めるのではなく、プロンプトを送り、トークンを受け取るホスティングされたAPIを提供し、OpenAIやAnthropicと同様の基本的な抽象化を実現しています。

そのAPIレイヤーは、ウェハ規模のハードウェアを実装の詳細に変えます。企業はレイテンシ、スループット、データの居住性の保証を購入し、Cerebrasは静かに自社のシリコンを裏で入れ替えることで、NVIDIAがすでに支配する開発者ツールの戦争に勝つ必要を回避しています。

シリコン対ソフトウェア:真の戦場

イラスト:シリコン対ソフトウェア:真の戦場
イラスト:シリコン対ソフトウェア:真の戦場

シリコン革新者たちは同じ氷山、つまり ソフトウェアの重力 にぶつかり続けています。セレブラスは2兆個のトランジスタとペタバイト毎秒の帯域幅を持つディナープレートサイズのウェハーを製造できますが、それでも開発者たちをNVIDIA GPU上で単一の設定変更だけで動作するPyTorchスクリプトから引き離す必要があります。

歴史は通常、こうなることを示しています。ベータマックスはVHSよりも優れた画質を提供しましたが、スタジオ、レンタル店、ハードウェアパートナーがVHSに標準化したため、VHSが勝ちました。アップルの技術的に洗練されたMac OSとPowerPCハードウェアは、90年代に大きなインストールベースとより豊富なツールを求める開発者に従ったため、ベージュのx86ボックスのWindowsに負けました。

モバイルはそのパターンを繰り返しました。WebOSとBlackBerry 10は時代を先取りしたマルチタスクとジェスチャーシステムを搭載していましたが、iOSとAndroidは以下の点で彼らを圧倒しました: - より大きなアプリストア - より優れたSDKとドキュメント - より予測可能なマネタイズ

AIハードウェアは今、同じ岐路に立っています。Cerebras、Groq、Tenstorrentは、新しいアーキテクチャ—ウエハスケールエンジン、LPU、RISC-Vアクセラレータ—を推進し、一方でNVIDIAはCUDA、cuDNN、TensorRT、そしてPyTorch/TensorFlowの緊密な統合に注力しています。一方は生のFLOPと巧妙なレイアウトを販売し、もう一方は研究論文から生産クラスターへのほぼ摩擦のない道を提供しています。

開発者は理論的な優雅さではなく、結果までの時間を最適化します。大学院生がオープンソースのモデルを使い、いくつかのパッケージをpipでインストールし、一日でH100でピークパフォーマンスの90%に達することができる場合、新しいツールチェーンやデバッガー、デプロイメントワークフローを正当化するには代替手段が劇的に優れている必要があります。「書面上で2倍速い」ことは、「既存のCIパイプラインで動作する」ことにしばしば敗れます。

相互運用性が武器になる。NVIDIAのスタックは次のように広がっています: - カーネルレベルのCUDA - プリミティブ用のcuDNNおよびcuBLAS - デプロイメント用のTensorRTおよびTriton Inference Server - ターンキークラスタ用のDGXおよびDGX Cloud

その垂直統合により、JAXからMojoまでのすべての新しいフレームワークがCUDAをデフォルトのターゲットとして扱います。競合するシリコンは、その環境をエミュレートするか、ツール、ドライバー、ライブラリの平行宇宙を構築する必要があります。これは、ベンダーとユーザーの両方に対する巨大な負担となります。

AIの市場支配は、最も奇妙なチップを出荷する企業よりも、エンドツーエンドの開発スタックを所有する企業にかかっています。シリコンの高速化は重要ですが、コンパイラ、ランタイム、オーケストレーション、クラウド統合の制御が、次の何百万ものモデルがどこで訓練され、提供されるかを決定します。

クリアボードの価格

AIハードウェアの市場統合はもはや抽象的ではなく、整然としたチェスボードのように見えます。NVIDIAはすでにデータセンターのGPU市場の推定80〜90%を支配しており、200億ドルのGroqとの契約のような取引は、古典的な独占禁止法に触れることなく、残された数少ない独立した駒の一つを静かに消し去っています。

リバース・アクイハイア構造は、意欲的なハードウェアの創業者にとって新たな冷え込んだデフォルトを生み出します。最良の「出口」が1~1.5倍のリターンで、徐々に「ゾンビスタートアップ」の地位に沈んでいくのであれば、ベンチャーキャピタルにとって合理的な選択は、NVIDIAに脅威を与える前に外科的に無力化される可能性のある競争するシリコンではなく、CUDAの上にソフトウェアを資金提供することです。

その変化は重要です。なぜなら、AIハードウェアは資本集約的で成熟が遅いからです。7年と数億ドルが今では次のような結果をもたらす可能性があります: - コアチームが抜け出す - 知的財産が他にライセンスされる - ブランドが囮として残される

創業者にとって、そのプレイブックは「資金調達可能」と見なされるハードウェアのオーバートンウィンドウを狭めます。既存企業への譲歩に終わる可能性が高いのに、なぜGroqやHabana Labsを支援するのでしょうか?Cerebrasが追求しているような独立したIPOとは異なりますが。

消費者と企業は最終的に代償を支払うことになります。信頼できる競合が減ることで、アクセラレーターの価格が高騰し、キャパシティの待機リストが長くなり、AmazonからOracleに至るまで、CUDA、DGXシステム、NVIDIAのクラウドパートナーへのベンダーロックインが深まります。

スタートアップの最先端R&Dが吸収されると、残されたシェルは市場を前進させることはほとんどありません。GroqCloudは推論サービスを維持し続けるかもしれませんが、ジョナサン・ロスとオリジナルのコアチームなしでは、革新的な次世代LPUを出荷する可能性は急落します。

規制当局は、依然として競争が激しい分野を見ています:Groqはまだ存在し、Cerebrasはハードウェアを販売し、クラウドプロバイダーは社内チップを構築しています。しかし、実際の競争の脅威、つまりNVIDIAのマージンを削るかCUDAの優位性を弱める可能性のあるチームや知的財産は、静かに社内へ移行しています。

NVIDIAがGroqを「買収」というような報道は、その目の錯覚を捉えています。競争の幻想は表面上は続いているものの、実際のゲームの駒は一つのロゴの下に集まっています。盤面は賑やかに見えますが、その結果はますます予測可能になっています。

Nvidiaの独占は崩せるのか?

NVIDIAのAIハードウェアに対する影響力は絶対的なように見えます。データセンターアクセラレーターの80~90%、17年以上の歴史を持つCUDAスタック、そしてGroqの最良のアイデアに対する実質的な支配を確立しています。しかし、テクノロジーの独占は永遠に争われないままでいることは稀であり、通常はソフトウェアを通じて周辺から侵食されていきます。

CUDAに代わる信頼できるオープンな選択肢が最初に求められます。それを「AIのためのLinux」と呼びましょう:CPU、TPU、カスタムASIC、さらにはCerebrasのウェーハスケールエンジンのような珍しいものでも効率的に動作する、トレーニングと推論のための統一されたオープンソーススタックです。すでにいくつかの要素は存在しています:PyTorch、JAX、Triton、MLIR、TVM、ROCm、oneAPI。

それが重要になるためには、ハイパースケーラーが一致しなければなりません。Google、Amazon、Microsoft、Metaが共通の低レベルのランタイムとカーネルライブラリに合意し、それをあらゆる場所で提供することを想像してみてください:彼らのクラウド、オンプレミスのアプライアンス、さらにはエッジボックスにまで。もし開発者が1つのオープンスタックにターゲットを絞り、非NVIDIAのシリコン上でファーストクラスのパフォーマンスを得られれば、CUDAのロックインはデフォルトではなく税金のように見えてくるのです。

ハイパースケーラーは、依存度を減らすための財務的な理由も十分にあります。H100およびB200クラスタ上で最先端モデルを訓練するには、年間数十億ドルの設備投資と電力が必要です。GoogleのTPU v5e、AWSのTrainiumおよびInferentia、MicrosoftのMaiaアクセラレータはすべて、NVIDIAの70%を超える粗利益からマージンを取り戻すために存在しています。

それらの社内チップは依然としてCUDA時代の抽象化に大きく依存しています。XLAやカスタムコンパイラ、開発者に「GPUのように感じさせる」翻訳レイヤーです。共有のオープンスタックを利用すれば、ハイパースケーラーは各モデルをすべて書き直すことなく自社のシリコンを切り替えることができ、最終的には信頼できる代替オプションを持つことでNVIDIAとの価格交渉も有利に進めることができます。

規制当局は、鈍器のように背景に控えています。司法省はすでに2022年にNVIDIAの400億ドルのArm取引を阻止し、Googleにおける類似の「逆買収」構造を調査しています。NVIDIAが支配的なハードウェア、支配的なソフトウェア、そして深刻な競争相手の知的財産を掌握する世界は、独占禁止法の監視のために用意されたもののように見えます。

独占禁止法の措置がより良い技術を生み出すことは稀ですが、時間を稼ぐことはできます。Cerebras、Groqの残骸、そして次のチップスタートアップの波にとって、その余裕はCUDAの重力井戸と競争できるものを築く唯一のチャンスかもしれません。

よくある質問

Nvidiaが実際にGroqを200億ドルで買収したのですか?

いいえ。Nvidiaは、非独占的な技術ライセンスのために200億ドルの取引を構築し、創業者を含むGroqの主要な人材を採用しました。Groqは技術的に独立した企業であり続けますが、その核心的な価値は抽出されました。

リバースアクイハイアとは何ですか?

大企業が重要な人材を雇用し、スタートアップの知的財産を取得するが、正式な買収を行わない戦略です。これにより、規制の監視を回避し、潜在的な競合を無力化することができ、しばしばスタートアップは「ゾンビ」のような存在になってしまいます。

なぜグロクはエヌビディアにとって脅威と見なされたのか?

Groqは、その独自のLPU(言語処理ユニット)アーキテクチャを使用して、高速かつ低遅延のAI推論に特化しています。この技術は、ますます重要性を増す推論市場でのNvidiaの支配に挑戦する可能性がありました。

ジョナサン・ロスとは誰で、なぜ彼は重要なのか?

ジョナサン・ロスはGroqの創設者であり、GoogleのTPU(テンソル処理ユニット)の元アーキテクトです。Nvidiaが彼を雇うことで、世界有数のAIチップデザイナーの一人を獲得し、競合他社が彼の専門知識を活用するのを防ぎました。

🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts