TL;DR / Key Takeaways
新しいAI経済はすでにここにある
ハイプサイクルのグラフは忘れてください。マシュー・バーマンは、フォワード・フューチャー・ライブのパネルを開き、AIのゴールドラッシュが静かにフェーズを変えたと宣言します。生のモデル能力は依然として重要ですが、今や本当の戦いは効率性、レイテンシー、そして誰が基盤モデルを持続可能で収益性の高い製品に変えられるかに移っています。競争はもはや「誰が最大のモデルを持っているか?」ではなく、「誰が最も低コストで、摩擦を最小限に抑え、グローバル規模でインテリジェンスを提供できるか?」になっています。
彼のストリームでの会話はもはや抽象的なAGIのタイムラインを中心に回っていない。AIファクトリーの構築に焦点を当てている:ハイパースケールデータセンター、オンプレミスクラスタ、およびノンストップ推論のために調整されたエッジ展開についてだ。バーマンと彼のゲストは、未来を語るのではなくオペレーターのように話しており、利用率、ワットあたりのスループット、そしてコンプライアンスや予算を壊さずに既存のワークフローにモデルをどのように組み込むかに執着している。
ここで述べられているAI工場は、研究所よりもむしろ工業プラントに似ています。チップや電力の予測可能なサプライチェーン、データと微調整のための標準化された「組立ライン」、ミリ秒単位のSLAおよび稼働時間の99%といった要件が必要です。企業はもはやモデルのパラメータ数を尋ねる前に、RPO、SOC 2、そしてベンダーロックインについて尋ねています。
バーマンのパネルは、この新しいAI経済の四つの柱を並べています。ハードウェアからは、グロックのサニー・マドラが超低遅延LPUを推進し、モデルからはGoogle DeepMindのローガン・キルパトリックがジェミニとGoogleのエージェントロードマップを代表しています。資本からは、エマージェンスキャピタルのジョセフ・フロイドが成長段階のSaaSについて語り、エージェントからはオーグメントのガイ・グルアリが実際の企業におけるワークフロー自動化に焦点を当てています。彼らは一緒に、シリコンからユーザーインターフェースまでのスタックを描いています。
各柱は同じ方程式の異なる部分を解決します。ハードウェアは推論コストを削減し、モデルは最先端でありながら制御可能でなければならず、資本は新奇性の消失後も生き残るビジネスモデルに資金を提供し、エージェントはAPIコールを測定可能な生産性に変えなければなりません。それらはどれも孤立しては機能しません。
中央の緊張が会話全体を貫いている:ウイルス的なデモと実際にスケールするシステムの対立。バーマンは2026年のためのシンプルなフィルターに繰り返し戻る:この4つのレイヤーは、CFOがパイロットだけでなく、複数年契約にサインするほどに緊密に統合できるのか?それが、ベンチマークスコア以上に、既に形を成し始めている新しいAI経済を定義する。
あなたのLLMは遅すぎます。スピードが新たな差別化要因です。
レイテンシー、モデルのサイズではなく、AIプラットフォーム戦争の勝者を決定づけるのはレイテンシーです。Groqのサニー・マドラは、2026年までにほとんどのAI投資はトレーニングではなく推論に流入すると主張しています。なぜなら、ユーザーが実際に製品を感じるのはその部分だからです。応答に3秒かかる3000億パラメータのモデルは、100ミリ秒で応答する小さくて安価なモデルに負けるのです。
従来のGPUスタックは、ラッシュアワーの交通に捕まったスポーツカーのようなものです:理論上は速いですが、実際には予測不可能です。GPUは数千のスレッド、コンテキストスイッチ、混合ワークロードを扱うため、トークン時間は激しく変動します—ある瞬間に50ms、次の瞬間に400msになります。このジッターは、遅延が約200msを超えると人間が検出するため、ライブ音声エージェントのような体験を台無しにします。
GroqのLPUアーキテクチャは、決定論的アプローチに切り替えます。汎用計算の代わりに、LPUは固定された実行経路でトークンごとのパイプラインを実行するため、負荷がかかった状態でも遅延をトークン単位で正確に測定できます。たとえば、約10 ms/トークンです。開発者は、平均値ではなく、保証に基づいて製品を設計することができます。
トークンあたりのコストが10倍から100倍に崩壊し、レイテンシーが非常に予測可能になると、全く新しい製品カテゴリが解放されます。150ミリ秒未満で聞き、推論し、返答するリアルタイムエージェントは、コールセンターのIVRではなく、人間の会話のように感じられます。複雑な思考の連鎖による推論—内部での数百または数千トークンの熟考—は、もはや手に負えないほど遅く、費用がかかることはなくなります。
経済の重心が移動します。サポートエージェントのコストが1回の対話につき0.10ドルで済むのであれば、企業はほぼすべての接点をAIレイヤーを通じてルーティングできます。もしコーディングアシスタントが1秒未満でローカルで複数のステップのリファクタリングを実行できるなら、開発者はコンテキストスイッチをやめ、AIに継続的なペアプログラミングを頼るようになります。
未来の「勝利のスタック」は、「最良のモデルが勝つ」というよりも、「十分良いモデルが迅速で安価な推論基盤上で動作する」という形になるでしょう。このスタックは以下の要素を組み合わせます: - 強力だが必ずしも最前線のLLM - LPUや最適化されたASICのような専門的な推論ハードウェア - インフラ層での積極的なコンパイル、キャッシング、バッチ処理
ユーザーは自分のアシスタントを支えるモデルについて尋ねることはないでしょう。彼らはただ、アシスタントが即座に反応し、ほとんどコストがかからないかどうかを感じるだけです。スピードが競争の要素となり、推論用シリコンが戦場となります。
Googleの「パーソナルインテリジェンス」エージェントの計画
Google DeepMindのローガン・キルパトリックは、Geminiのロードマップを汎用モデルから持続的な「パーソナルインテリジェンス」への移行として位置づけています。それは単にプロンプトに応答するのではなく、Gmail、カレンダー、Drive、Docs、Chromeの各サービスに寄り添い、あなたが求める前に必要なものを予測するために常に信号を取り入れています。
それは、あなたの旅行パターン、定期的な会議、未読スレッドを把握する専任のエージェントとしてのジェミニを意味します。そして、積極的に返信を作成し、コンフリクトを再設定し、関連ファイルを提示します。毎朝の「自動ブリーフィング」を想像してください:あなたの現在のプロジェクトに合わせた重要なメール、会議、ドキュメント、ニュースで、一般的なフィードではありません。
そこに到達するために、GoogleはユーザーコンテキストにGeminiを大規模に直接接続する必要があります。キルパトリックのビジョンは、メッセージ、イベント、タスク、ブラウジングなどのあなたの個人グラフの構造化されたスライスを公開するAPIを意味しており、それに触れるすべてのアプリに対して厳格なスコープ設定、取り消し、監査可能性を適用しなければなりません。
開発者は以下の三つの基本的な要件を求めるでしょう: - データセットごとの詳細な権限(例:「カレンダーのみ読み取り、メールは不可」) - エージェントの行動およびデータアクセスの検証可能なログ - エージェントがユーザーデータを不正に取得したり漏洩させたりできないようにするサンドボックス実行
Googleはまた、安全性を確保するためのポリシーレベルのガードレールが必要であり、モデルの動作に単に依存するべきではありません。デフォルトでアクセスを拒否する仕組み、時間制約のあるトークン、デバイス内フィルター、「表示のみ」モードに加え、管理者が企業のシステム内でどのGemini搭載エージェントを実行できるかを中央管理できる企業向けのコントロールを期待しています。
プライバシーと信頼は、この戦略の中心に位置しています。Chromeの30億以上のユーザー、Gmailの18億以上のアカウント、そしてAndroidの30億以上のアクティブデバイスは、Googleに前例のないコンテキストを提供しますが、同時に、もし何らかのエージェントが不適切な行動をとったりデータを過剰に収集した場合の巨大な責任も伴います。
サンダー・ピチャイは、強力なエージェントと既存のウェブエコシステムとの衝突コースについてすでに警告を発しています。ジェミニがすべてを要約する場合、出版社はページビュー、広告インプレッション、そして特にエージェントが検索、Android、Chrome内でその場で応答するため、直接的な関係を失うことになります。
オープンウェブが爆発しないようにするために、Googleはパブリッシャーをエージェント経済の一級の参加者として扱うべきです。それは、構造化された「エージェントフィード」や、AIによる回答に対する収益の分配、明示的な統合フックを意味するかもしれません。これは、ハードウェアメーカーのGroqが、健全なアプリとコンテンツのエコシステムに依存しつつ、低遅延の推論プラットフォームを提供する方法と似ています。
VCフィルター:AIの煽りから真の価値を見極める
「AI駆動型」ピッチデッキのハネムーンは数ヶ月前に終わりました。エマージェンス・キャピタルのパートナーであるジョセフ・フロイドは、投資家がまず直球の質問をする市場を描写しています。それは、「これは本当にP&Lのラインアイテムを動かしますか、それともOpenAIのAPIを絡めたただの洗練されたデモに過ぎませんか?」というものです。
VCはユニットエコノミクスを厳しく分析しています。創業者は、単なる機能リストや曖昧な生産性の主張だけでなく、AIが顧客獲得コスト、粗利、または拡張収益をどのように変えるかを示さなければなりません。
CACは最初のストレステストになります。もしスタートアップが営業活動にAIの共同操縦者を追加する場合、フロイドはアウトバウンドのコンバージョン率が20~30%上昇するか、営業担当者が燃え尽きることなく2~3倍多くのアカウントを担当できるという証拠を求めています。
マージンは同じ圧力下にあります。「AI自動化」を主張するチームは、顧客あたりのサポートチケット数が減少したこと、解決時間が短縮されたこと、または1百万ドルの年間経常収益(ARR)あたりの人員削減が測定可能であることを示さなければなりません。単に推論によるクラウド料金が増加しているだけでは不十分です。
防御可能性は静かに新しい堀の obsession となりました。モデルのコモディティ化—Gemini、GPT-4.1、Claude、オープンウェイト—フロイドは、生のモデルアクセスではもはや差別化できないと主張しています。誰でも千トークンあたり数セントで同じAPIを呼び出すことができます。
実際のモートは、以下の三つの資産の周りに形成されます: - 独自性のある、再現が難しいデータ - 業務に深く結びついた独自の高摩擦ワークフロー - 組み込まれたパートナーシップや既存のSaaSフィートプリントのような流通上の利点
独自データは、単なるS3バケットのログ以上の意味を持ちます。エマージェンスの支援を受けた創業者たちは、ラベル付きワークフロー、成果データ、顧客特有のオンロジーについて語り、これらが彼らのモデルが公に公開されていないパターンを学ぶことを可能にし、パフォーマンスの格差を拡大させています。
ワークフローの深さも同様に重要です。Chrome拡張機能やチャットサイドバーとしてのみ存在するAI製品は脆弱に見えますが、請求書の承認方法やコードの出荷、取引の予測を根本的に変えるものは、ビジネスを壊すことなく取り除くことが不可能になります。
エマージェンスのB2B SaaSの視点から見ると、最も強力なAIスタートアップはツールというよりも、埋め込まれた知能を持つ記録システムのように見えます。これらはコアデータの上に位置し、アプリ間のアクションを調整し、作業が開始され、測定されるデフォルトの場所となります。
ROIは最終的な判断基準となる。フロイドはチームに対し、時間対価を四半期ではなく週単位で定量化し、コホートデータを用いて維持率を証明するよう促す。AIが実際にワークフローを変えるのであれば、純ドル維持率は120%を超えるべきであり、拡張は選択肢ではなく必然のものと感じられるべきである。
AIワーカーの台頭:エージェントがあなたの仕事をどのように変えるか
SFのエージェントがあなたの生活を支配するのは忘れてください。ガイ・グアリは、静かにあなたの受信箱を運営するエージェントを構築することに専念しています。オーグメントでは、彼のチームがLLM搭載エージェントを現代の知識労働を支えるツール、すなわちGmail、Salesforce、Jira、Notion、そして一連の内部ダッシュボードに直接接続しています。その任務は、数千の小さなタスクから数分を削減し、全体の役割が異なるように見えるまで変化させることです。
Augmentの顧客は、大それた目標から始めるのではなく、まずはメールの仕分けから始めます。エージェントは受信スレッドを読み、意図を分類し、応答をドラフトし、メッセージを適切な人間またはシステムにルーティングします。営業チームのために、別のエージェントが自動的にCRMを更新し、通話を記録し、メモを同期させ、機会をクローズします。これにより、営業担当者はデータ入力に1日の30〜40%を費やすことがなくなります。
神のような「スーパエージェント」ではなく、グール=アリは狭い範囲で頼りになる多くの作業者の集団を提唱しています。一人のエージェントは週次のパイプラインレポートを専門にし、別のエージェントは顧客の健康スコアを集計し、さらに別のエージェントは請求の不一致を調整します。それぞれがユーザー一人当たり1日5〜10分しか節約できないかもしれませんが、5,000人の従業員全体で見ると、それは年に数百万ドルの生産性向上につながります。
このモジュラーアプローチは、企業が導入を段階的に進めることも可能にします。企業はまず以下の3つのエージェントを導入することができます: - サポートキューのためのメールトリアージ - 自動CRMメンテナンス - 財務およびオペレーションのための標準レポート生成
それらが信頼できることが証明されると、(誤差率が1桁、測定可能な時間の節約)チームはより複雑なワークフローに拡大します。グル・アリはこれをAI Workforceの構築として捉えています。一人のアシスタントではなく、エージェントを雇い、職務内容を与え、彼らの指標を観察します。
モデルの能力が展開を妨げることはほとんどありません。GPT-4クラスのシステムは、すでにしっかりとしたメール、SQLクエリ、サマリーを作成します。本当の壁は信頼性、セキュリティ、および監査可能性です:顧客データをエージェントに信頼できますか?そして、先週の火曜日の午後3時17分に何をしたのか正確に見ることができますか?
Augmentは、厳密なスコープと完全なアクションログを用いてこれを解決します。エージェントは最小権限アクセスの下で動作し、すべてのAPIコールが記録され、誰でも決定をステップバイステップで再生できます。規制の厳しい業界—金融、ヘルスケア、大規模なSaaS—では、監査証跡がないということは、デモでモデルがどれほど賢く見えてもデプロイメントはできません。
この革命を推進する「AIファクトリー」
AIは現在、コンクリート、銅、そして冷却塔の上で稼働しています。ハイパースケーラーは、モデルのアップグレードと、サニー・マドラが支出の主流になると主張する推論需要の爆発に追いつくために、500メガワット以上を引き出す専用のAI工場を設立する競争を繰り広げています。
マイクロソフト、グーグル、アマゾン、メタは、「既存の地域にGPUを追加する」から、AI専用データセンターの設計に静かに移行しており、カスタム電力変電所や現地変電所を備えています。マイクロソフトは新しいAIインフラに対して1000億ドル以上を投資することを決定したと報じられており、グーグルやアマゾンも数十億ドル規模の複数年にわたる設備投資計画を進めています。
その建物の中では、NVIDIAが依然として支配していますが、一人ではありません。ハイパースケーラーたちは現在、NVIDIA H100/B100、AMD Instinctパーツ、AWSのTrainiumやInferentia、GoogleのTPU v5p、MetaのMTIAなど、異なるモデルサイズやワークロードに合わせて調整された各種アクセラレーターを操っています。
その混合は非常に厳しい最適化のパズルを生み出します。クラウドチームは、単に「いくつのGPUが必要か?」だけでなく、どのシリコン、どのインターコネクト、そしてどの地域が必要なメガワットを提供できるかを決定しなければなりません。地域の電力網の制限や規制の警告を引き起こさずに。
バーマンは彼のニュースレターでこれを強調しています:AIデータセンターはすでに全球の電力使用量の推定2〜3%を占めており、一部の予測では2030年までにAI関連の需要が4〜6%に達する可能性があります。バージニア州北部、ダブリン、オレゴンの一部では、電力網が十分に拡張できないため、新しいデータセンターの接続を遅らせたり制限したりする地方公共料金会社が出てきています。
反発が高まっています。地域の団体がモラトリアムを求め、規制当局が冷却のための水使用を精査し、政府はAIチャットボットが限られた電力を住宅や交通機関と競争する理由を問います。この政治的プレッシャーは、ハイパースケーラー間の競争と直接衝突しています。
そのような背景の中では、ワットあたりのパフォーマンスは単なる良いものではなく、生き残りのための数学になります。GroqのLPUの提案—低レイテンシ、高トークン毎秒、そしてワットあたりの効率の向上—は突然、グリッドの制約、ESGの義務、および企業のコストモデルと一致します。
Google自身の効率的なジェミニ展開やエージェントワークロードへの推進、ロガン・キルパトリックが示唆するものも、インフラ戦略文書やGoogle DeepMind - 公式サイトのようなリソースに現れています。
APIラッパーを超えて:今、VCが実際に資金提供するもの
ジョセフ・フロイドは遠慮しない。「APIラッパー」の時代は終わった。エマージェンス・キャピタルは、AIの提案を一つの厳しい基準で審査している—この製品は機械知能が中心にないと存在する理由があるのか、それともAIは単なるSaaSに貼り付けられた華やかな機能に過ぎないのか?
フロイドにとって、AIネイティブなワークフローは、作業の進行方法を根本的に変えるものであり、単にボタンのクリック速度を向上させるものではありません。自動でメールを作成する営業プラットフォームは段階的なものですが、パイプラインを継続的に監視し、アプローチをドラフトし、アカウントの優先順位を変更し、最小限の人間の入力でチャネル全体にわたってキャンペーンを実行するシステムは、まったく新しいワークフローです。
真のAIネイティブ製品は、仕事のフィードバックループにモデルを組み込んでいます。彼らは行動を観察し、嗜好を学習し、次第に自発的に行動を起こします—財務の異常をフラグ付けしたり、コードの変更を提案したり、サポートチケットを明示的に指示されることなくルーティングしたりします。
それは、多くの創業者が過小評価している市場投入の問題を引き起こします。あなたが販売しているのは静的なソフトウェアではなく、使用やデータから学び続けるため、初日、30日目、365日目で異なる挙動を示すツールです。
フロydは、進化を前面に出したGTMプレイブックの設計をチームに促しています。初期採用者には明確なストーリーが提供されます。1週目での基準値、4週目での目に見える改善、そして顧客データに基づいてモデルが調整されることで2四半期目には自動化の効果が累積します。
成功したAIネイティブのGTM(ゴー・トゥ・マーケット)は、測定可能な効果に結びついたランディング・アンド・エクスパンドの動きに依存することが多いです。投資家は、30~50%のサイクルタイム短縮、10~20%の収益向上、または人員中立のスケーリングなどの指標を見たがり、見栄えの良い「1日あたりのプロンプト数」チャートには関心を持ちません。
新興の勝者は二つのパターンに従います。第一には、守りやすいインフラストラクチャースタックの一部を所有していること—例えば、GroqのLPUハードウェアや専門的なベクターデータベースなどです。第二には、密接なデータフライホイールと再現が難しいコーパスを持って業界を支配していることです。
垂直リーダーは、時間が経つにつれてアプリよりもインフラに近くなります。数百万の契約、注釈、および成果を取り込む法務AIや、臨床ノートと成果データに基づいて調整されたヘルスケアアシスタントは、一般的なLLM APIの顧客が決して目にしない独自のシグナルを蓄積します。
データフライホイールは、玩具とプラットフォームを分けます。顧客が製品を使えば使うほど、ラベル付けされたインタラクション、修正、エッジケースが増え、これがモデルのパフォーマンスを直接向上させ、ロックインを深めます。
フロイドのフィルターはシンプルかつ厳しい: 別のモデルプロバイダーに切り替えた場合、ほとんどの優位性が失われるのであれば、あなたは会社を持っているのではなく、機能を持っているのです。それを理解している創業者が、2026年でも依然として契約書を手に入れているのです。
デジタル共操縦者を信頼できるのでしょうか?
あなたが眠っている間に、ボットがあなたのHRシステム、受信トレイ、CRMを探ることを信頼できますか?ガイ・グルアリは、企業がそれに自信を持って「はい」と答えられるまでは、エージェントは制限された状態に留まると主張しています。次の波のAIは、よりスマートなチャットではなく、運用管理とトレーサビリティに関するものです。
信頼性は今や「通常正しい答えを出す」とは限りません。企業はエージェントのためのGit履歴を求めています:すべてのアクション、入力、ツールの呼び出し、意思決定の経路に関する改ざん防止のログです。AIが給与や割引で誤った場合、チームはSaaSツールや内部システム全体で以前の状態を復元するワンクリックのロールバックが必要です。
それはベンダーに対して、完全な監査可能性スタックを構築するよう促しています:タイムスタンプ付きのトレース、構造化された推論ログ、リプレイ可能なセッション。DatadogやSplunkのようなものですが、エージェントの認知とワークフローのためのものです。もし共同操縦者が1,000件のSalesforceレコードを変更した場合、セキュリティチームは誰がそれを承認したのか、どのプロンプトがそれを引き起こしたのか、そしてどのポリシーがそれを許可したのかを確認できることを期待しています。
セキュリティとデータプライバシーは、チェックリストの中でもさらに重要な位置を占めています。エージェントは、メール、HRプラットフォーム、CRMの間で作業を行いたいと考えていますが、CISOは広がる被害範囲を懸念しています。1つのエージェントキーが侵害されれば、突然、役員のメールを読み取ったり、HRの報酬バンドを取得したりできるのです。ゼロトラストは選択肢ではなく、設計の制約です。
現代のエージェントスタックは、ますます人間のアクセスモデルを反映しています。企業は以下を求めています: - 共有サービスアカウントではなく、ユーザーごとのOAuthおよびSSO - ツールごとのきめ細かなスコープ(「読み取り専用カレンダー」、「添付ファイルなし」) - プロンプトがモデルに到達する前のオンザフライの機密情報の削除およびデータ損失防止
実際のデプロイメントへの道のりは、非常に段階的に進むようです。グラ・アリ氏や他の人々は、企業がリスクが低く頻度の高いタスクから始めるのを見ています。具体的には、ステータスメールのドラフト作成、チケットの要約、重要でないCRMフィールドの更新などです。これらの仕事は実際のデータに関連していますが、何かがうまくいかなくても四半期を台無しにすることはありません。
エージェントが99%以上の成功率でこれらのマイクロワークフローを数千件実行でき、クリーンな監査トレイルを証明したとき、企業はその範囲を広げます。その時初めて、AIが収益オペレーション、調達承認、または人事ワークフローに関与することを許可します—これらの分野では、単一の誤認識されたアクションが法的審査を引き起こす可能性があり、単なるスラックでのため息では済まされません。
戦場はモデルからエコシステムへと移行する
ベンチマークはGPT-3とPaLMが競争しているように見えたときには意味がありました。しかし、今や、GPT-4.1、Claude 3.5 Sonnet、そしてGemini 1.5 Proがほとんどのタスクに対して「十分良い」状態にあるため、生のモデルスコアは交通渋滞に満ちた都市でのスーパーカーのラップタイムについて議論しているように感じます。力は個々のモデルから、シリコン、ソフトウェア、および流通を一つの複合的なループに結びつけるエコシステムへと移行しています。
ハードウェアはそのスタックの基盤に位置しています。NVIDIAが依然として大部分のトレーニングを支配していますが、推論は急速に分散しています。GroqのLPUアーキテクチャは、70Bパラメータモデルでエンドツーエンドの応答時間を50 ms未満に抑えていますが、GPUクラスタはしばしばスケール時に300 msを切るのに苦労しています。このレイテンシの差は単に快適さを感じさせるだけでなく、AIコ-pilotがIDE、受信トレイ、またはCRM内でユーザーをキーボードショートカットに戻すことなく機能できるかどうかを決定します。
そのシリコンの上に、モデルインテリジェンスは製品ではなく特徴になる。Llama 3.1やPhi-3のようなオープンソースモデルは、特に独自のデータで調整されると、毎月能力のギャップを埋めている。サニー・マドラの指摘は重みを持つ:これらのモデルを最も速く、最も安く、そして最も予測可能に運用できる者が、すべてのワークフローに組み込まれる権利を勝ち取る。
Googleの回答は、流通の重力に依存しています。GeminiはSearch、Android、Workspaceに接続され、Logan Kilpatrickの「個人インテリジェンス」エージェントは数十億のユーザーとペタバイトの行動データに即座にアクセスできます。すべてのドキュメント編集、Meetのトランスクリプト、Gmailのスレッドは、より良い提案、要約、そして自律的な行動のためのトレーニング信号となります。
Groqは逆の戦略を取ります:推論レイヤーを所有し、オープンソースのモデルや独立した開発者をその上に集めるのです。この戦略は、モデルを交換可能なカートリッジと見なし、Groqのハードウェアとツールを恒久的なプラットフォームとして扱います。低遅延のAPIと透明性のある価格設定は、SaaSの創業者や企業が本番環境での標準としてGroqを採用することを促します。
ジョセフ・フロイドのような投資家は、これを4つの柱のゲームと見ています:ハードウェア、モデル、開発者ツール、および流通。エマージェンス・キャピタル – 公式サイトは、守るべきAIネイティブ企業がこれら4つをフライホイールに結びつけていることを明示しています: - より速く、安価なハードウェアが新しいリアルタイムアプリケーションを解放する - 新しいアプリが独自のワークフローとデータを生成する - より良いデータがモデルとエージェントを改善する - 優れた製品がより多くのユーザー、収益、資本を引き寄せる
そのループを最も早く閉じる者が、2026年のAI経済のルールを決定する。
エージェンティック時代のためのアクションプラン
AIのエージェントの波は完璧な戦略デッキを待たない。今後18~24ヶ月の間に勝者となるのは、エージェントを仕事の新しいランタイムとして扱う人々だ。迅速で観察可能、そして高頻度のワークフローに直接接続されているものであり、単なるチャットウィンドウに留まらない。
ビルダーや開発者は、レイテンシにこだわるべきです。ユーザーは応答が1〜2秒を超えると離脱し、10秒ではエンゲージメントが急激に低下します。それが推論を最前線に置くことになります:GroqスタイルのLPUや、NVIDIA GPUのバリエーション、AWS、Google Cloud、Azureからの新しい専門的ハードウェアAPIを実験し、1,000トークンあたりのコストと実際の応答時間をベンチマークしてください。
一つの痛みを伴う、繰り返し行う仕事に製品の焦点を絞ります。「すべての受信サポートメールのトリアージ」、「CRMとメールからの営業ブリーフィングの準備」、または「ERPエクスポートからの月次締め作業」といった具合です。ツールを観察し、決定し、行動を起こし、その後人間のために要約する主体的なワークフローを設計します。強固なガードレールと再生可能なログを備えています。
投資家は、基盤モデルがコモディティ化することを想定すべきです。スタートアップが推論コストを削減できない、またはより良いインフラ契約を結べない場合、粗利益が崩壊します。以下の点についてプレスチームに圧力をかけてください: - タスクごとのユニットエコノミクス、席ごとではなく - 独自データの優位性 - ワークフローのロックインと切り替えコスト
データとプロセスの深さに伴って使用が増加する製品を探してください。単なるユーザー数ではなく、2026年における堅固な防御手段は、数千の顧客のワークフローに組み込まれ、実際の成果に基づいて継続的に微調整されたドメインの独自のオントロジーのようになります。
ビジネスリーダーにはムーンショットではなく、サンドボックスが必要です。まずは内部の低リスクなエージェントから始めましょう:ドキュメントにわたる知識検索、会議の要約、チケットの振り分け、または経費の分類です。これらのパイロットを活用して、エージェントが顧客や金銭に関わる前に、セキュリティ、プライバシー、監査のための制度的なプレイブックを構築します。
データアクセスおよび保持に関するルール - ヒューマン・イン・ザ・ループ承認基準 - エージェントの不適切な行動に対するインシデント対応
よくある質問
専門のAIハードウェア、例えばGroqのLPUの主な主張は何ですか?
LPUのような専門的なハードウェアは、AI推論のレイテンシーとトークンあたりのコストを劇的に低下させます。これにより、リアルタイムの対話型AI体験が大規模に実現可能かつ手頃な価格で提供され、競争の焦点がモデルのトレーニングからモデルの提供へとシフトします。
AIエージェントは、単純なチャットボットを超えてどのように進化しているのでしょうか?
彼らはユーザーのコンテキストを理解し、複数のアプリケーション(メール、CRM、ドキュメント)間で複雑なアクションを調整できる「パーソナルインテリジェンス」システムに進化しています。目標は、質問に答えるだけでなく、全体のワークフローを自動化するプロアクティブなアシスタントを作ることです。
現在、ベンチャーキャピタリストがAIスタートアップに求めているものは何ですか?
ベンチャーキャピタルは初期の熱狂を越え、AIネイティブなワークフロー、独自のデータモート、顧客に対する明確なROIを持つスタートアップを優先しています。彼らはユニットエコノミクスや商品化された基盤モデルに対する防御力を厳しく scrutinizing しています。
「エージェンティックワークフロー」とは何ですか?
エージェントワークフローは、AIエージェントが異なるソフトウェアツールを通じて一連の相互に関連したタスクを自動化し、複雑な目標を達成するプロセスです。例えば、エージェントが販売CRMを監視し、パフォーマンスレポートを生成し、チームへの要約メールを作成することが考えられます。