あなたのAIコーディングワークフローは間違っています

最上級のAIコーダーは、単により良いプロンプトを書いているわけではなく、まったく異なるシステムを操作しています。アマチュアとプロを分け、AIを真のコーパイロットに変える「コンテキストファースト」のワークフローを発見してください。

Hero image for: あなたのAIコーディングワークフローは間違っています
💡

TL;DR / Key Takeaways

最上級のAIコーダーは、単により良いプロンプトを書いているわけではなく、まったく異なるシステムを操作しています。アマチュアとプロを分け、AIを真のコーパイロットに変える「コンテキストファースト」のワークフローを発見してください。

なぜあなたの「プロンプト&プレイ」メソッドは失敗しているのか

ほとんどの開発者が直面する同じ壁があります。CursorやVS Codeを開き、ClaudeやGPT-4を起動し、巧妙なプロンプトを入力すると、ほぼ動作する200行のコードが生成されるのを見ます。最初の10分間は魔法のように感じますが、その後の2時間はオフバイワンエラー、欠落しているインポート、実際のデータモデルに合わない関数の修正に消えてしまいます。

その痛みは静かな失敗モードから来ています:コンテキストの劣化。大規模モデルは何万ものトークンを扱いますが、あなたのプロジェクトは複数のファイル、API契約、そして半ば忘れられた設計決定によって、すぐにそれを超えてしまいます。3回目または4回目のプロンプトには、AIはもはやなぜPostgresをFirebaseの代わりに選んだのか、またなぜユーザーロールが別のサービスに存在するのかを「覚えていない」のです。

コンテキストの劣化は、モデルが自信を持って以前にリファクタリングした古いパターンを再登場させることで現れます。新しい `BillingClient` に更新するように依頼すると、以前のメッセージから非推奨の `StripeService` を蘇らせます。環境変数の名前を忘れ、型を再発明し、静かに実際のアーキテクチャから逸脱していきます。

そのドリフトは、厳しい下流コストを伴います。緻密で外科的な差分を見直すのではなく、ファイル全体に散らばった新しいヘルパー関数、重複したロジック、一貫性のないエラーハンドリングなどが盛り込まれた混合物が得られます。AIの処理が進むにつれて混乱は増し、デバッグは単一のバグに関するものではなく、同じ機能のわずかに異なる三つのバージョンを調整することに関するものに変わります。

開発者は、特に5~10ファイル以上のプロジェクトでは、コードを書くよりもAIの出力を監査することに多くの時間を費やしていると報告しています。具体的には以下の点が見られます: - 矛盾した形状を持つ重複したDTO - 同じ概念に対する異なる命名規則 - 公開インターフェースへの静かな破壊的変更

ナイーブなプロンプティングは、偽の自信の裏にある複雑さを隠します。そのモデルは、リフレッシュトークンやPKCE、適切なトークンストレージを無視した「機能する」OAuthフローを喜んで生成しますが、その結果、見た目は問題ないように見えても、セキュリティ上の負債を抱えることになります。同様のことがデータベースのマイグレーション、バックグラウンドジョブ、およびキャッシングレイヤーでも発生します。

真剣なAIコーディングワークフローは、モデルをシステムの一部として扱い、ジーニーのように扱いません。つまり、計画、明確なプロジェクトコンテキスト、およびAIを実際のコードベースに基づかせるスタックに配慮したプロンプトが必要です。

マインドセットをシフト:コンテクストエンジニアになろう

イラスト: マインドセットをシフトする: コンテキストエンジニアになる
イラスト: マインドセットをシフトする: コンテキストエンジニアになる

「チャットボットにプロンプトを送る」ことから、システムを操作することへシフトしましょう。それが、レイ・フェルナンドとコール・メディンが繰り返し強調する核心的な哲学です。真剣なAIコーディングというのは、エンジニアがパイプラインを運営するように、モデル、ツール、コンテキストを調整することを意味します。単にコードを求めるのではなく、プロジェクトに関するモデルの知識、視覚、記憶を形成するのです。

従来のプロンプトエンジニアリングは、一つのメッセージに重点を置いています:クエリを洗練させ、制約を追加し、場合によってはコードのスニペットを貼り付けることです。それは役立ちますが、すぐに限界に達します。なぜなら、すべてのインタラクションがモデルの理解をリセットしてしまうからです。狭い質問にはスマートな答えが得られますが、リポジトリ、アーキテクチャ、そしてロードマップを理解するコラボレーターにはなりません。

コンテキストエンジニアリングはそれを逆転させます。あなたはAIがあなたのスタック(文書、スキーマ、API、データフロー、制約)をどのように取り込むかを設計します。単一の巧妙なプロンプトの代わりに、リポジトリインデクサー、プロジェクト要約、すべてのリクエストと共に移動する構造化された「システム」プロンプトなどのツールを用いて、持続的なプロジェクトブレインを構築します。

Rayのワークフローは、コンテキストウィンドウ(8K、32K、または200Kトークン)を希少で高価値なリソースとして扱います。彼は、高信号のアーティファクトをキュレーションすることを推奨しています:1ページのアーキテクチャ概要、機能仕様、データモデル、依存関係マップなどです。これらは、Cursor、Claude、またはGPTスタイルのモデルに、新しい機能作業を始める前に入力する再利用可能なコンテキストブロックとして存在します。

それを、シニアエンジニアと新しいインターンの違いだと考えてみてください。シニアエンジニアは設計ドキュメントを読み、トレードオフを理解し、6ヶ月前の奇妙なマイグレーションを覚えています。一方、インターンはあなたが渡した一つのファイルしか見ておらず、なぜすべてがそのように構成されているのか全くわかりません。

プロンプトのみのワークフローは、あなたのAIをインターンのようにします:反応的で視野が狭く、既存のパターンに常に驚かされます。一方、コンテキストを活用したワークフローは、それをシニア開発者に変え、モジュール間の推論ができ、アーキテクチャの回帰を捉え、一貫した抽象化を提案します。同じモデルなのに、行動は劇的に異なります。

インフラのようにAIスタックを操作し、玩具のように扱わないでください。自分がコンテキストエンジニアであることを内面化すれば、ワークフローのすべてが変わります:ドキュメントの書き方、リポジトリの構造、モデルとの対話方法が変わるのです。

建設前の青写真:プロジェクトファーストの命令

ブループリントファーストのワークフローは、非常にシンプルなものから始まります。それは、書面での計画です。レイ・フェルナンドはこれを不可欠なものとして扱い、プロジェクト文書がミニ製品仕様書、アーキテクチャスケッチ、テストプランが一つになったような形になるまで、CursorやClaudeを開くことを拒否します。

その文書は、平易な言葉で機能要件から始まります。彼はユーザーストーリー、明確な「完了」基準、パフォーマンス目標、レイテンシ予算、またはブラウザサポートなどの制約を書くことで、モデルが間違った目標に対して静かに最適化できないようにしています。

次に登場するのはデータフローです。Rayはエンティティ、入力、出力、そしてデータがシステム内でどのように移動するかをマッピングします:リクエストペイロード、DBスキーマ、キャッシュレイヤー、外部API、バックグラウンドジョブなどです。もし機能が認証、請求、通知に関わるものであれば、コードの1行も存在する前に、それぞれのホップに名前と説明が付けられます。

彼はモデルのデフォルトに任せるのではなく、技術スタックの決定を固定します。計画には、言語、フレームワーク、ORM、キューシステム、テストツール、デプロイ先が明確に規定されており、バージョンまで指定されることが多いです:「Next.js 15、React Server Components、PostgreSQLを使用したPrisma、レート制限のためのRedis、単体テスト用のVitest、CIのためのGitHub Actions。」

レイはまた、エッジケースや失敗モードにおいてもパスを強制します。彼は「部分的な支払い成功」「ウェブフックの再試行」「古くなったJWT」「モバイルオフライン同期」といったシナリオを挙げ、システムがどのように劣化または回復すべきかを明示します。それらの要点は後にテストのプロンプトや監視チェックとなります。

その最初のドキュメントは、全体のAIセッションのシードコンテキストとなります。彼はそれを新しいチャットに貼り付け、契約として扱います。以降のすべてのプロンプトは、プロジェクトを一から再説明するのではなく、計画のセクションを参照します。

このステップは、モデルがアーキテクチャを発明するのを防ぎます。Postgresを求めているのにMongoDBが驚きを持って現れることはなく、モノリスを望んでいるのに神秘的なマイクロサービスが現れることもなく、既にAuth0を使っているのに自動生成された認証が現れることもありません。モデルは、あなたが描いた枠内でのみ「クリエイティブ」であることができます。

彼のライブビルドや深掘りセッションでこのディシプリンを体験できます。そういったセッションはRay Fernando YouTube Channel – AI Coding & Workflowsで見ることができ、コーディングセッション全体を推進するのはプロンプトではなく、計画です。

AIの記憶をマスターする:リソースとしてのコンテキスト

コンテキストは、AIペアプログラマーにとってRAMのように機能します。迅速で強力ですが、絶対に限られています。現代のLLMは、8,000から200,000トークンの範囲で処理しますが、フレームワークの接着コード、サードパーティライブラリ、そして自身の半分文書化されたサービスを加えると、そのウィンドウは驚くほど早く埋まります。その空間を予算として扱い、底なしの穴と考えないでください。

ほとんどの開発者は、生のファイルを貼り付けて予算を消費し、モデルが限界に達するまで続けます。その結果、部分的な理解、幻のインターフェース、誤ったモジュールの「役立つ」書き直しが生じます。レイ・フェルナンドのアプローチはこれを逆転させます。あなたは早い段階でコンパクトで高信号のプロジェクトサマリーに投資し、すべてのリクエストと共に移動させることで、モデルが瞬時に方向を定めることができます。

自動プロジェクトインデクサーがここでの力強いツールです。120のファイルを読み込む代わりに、リポジトリサイズの2〜5%ほどの構造化された「目次」を生成し、AIが必要とする80〜90%の情報をエンコードします。このインデックスには以下が含まれる可能性があります: - 高レベルのアーキテクチャ - 主要モジュールとその責任 - データモデルと関係 - 外部APIおよび統合ポイント

Cursor、Windsurf、そしてカスタムCLIスクリプトのようなツールは、プロジェクトが進化するにつれてこのインデックスを維持できます。Cursorのリポジトリレベルのプロンプトを使うことで、その要約を常時指示として固定できるため、すべてのチャット、編集、そして「これを修正」コマンドが同じ共有メンタルモデルを通じて実行されます。つまり、AIにスタックを最初から再説明するのではなく、持続的なデザインドキュメントを与えているのです。

システムプロンプトは、そのコンテキストの上にあるポリシーレイヤーとして機能します。Cursorでは、「認証を触らない」「機能的なReactコンポーネントを優先する」「すべての新しいコードはJestテストを含む必要がある」などのルールを定義できます。これらのガードレールは個々のメッセージの上に存在し、AIは小さな差分に集中しているときでもそれを尊重します。

高信号のコンテキストは、常に生のボリュームを上回ります。1,500トークンのアーキテクチャ概要、データスキーマ、およびルーティングマップは、フィルターのかかっていないコントローラー、ユーティリティ、無駄なコードの20,000トークンよりも優れています。AIにはマップを読み取らせたいのです、ノードモジュールの中を藪漕ぎさせるのではなく。

ノイズは厳密なトークン制限に達する前にモデルのパフォーマンスを低下させます。プロジェクトインデックスとリポジトリプロンプトを整備することで、コードベースをモデルが一貫して理解できるものに圧縮します。これが「ファイルを貼り付けるだけで壊れる」状態から、実際のコンテキストエンジニアリングされたワークフローを運営するための飛躍です。

考えるために、ただタイピングするだけでなく、あなたの最高のAIを活用しましょう。

イラスト: 単に入力するだけでなく、最高のAIを使って考えよう
イラスト: 単に入力するだけでなく、最高のAIを使って考えよう

ほとんどの人は、自分の最も優れたモデルを非常に速いタイピストのように扱います。しかし、レイ・フェルナンドやコール・メディンのようなワークフローエンジニアは、それをチーフアーキテクトのように扱います。クラウド3オーパスやGPT-4ターボには単にforループをこなしてもらうためにお金を支払うのではなく、最初に何が存在すべきかを決定してもらうためにお金を支払うのです。

最先端のモデルを活用して高圧縮思考を行い、システム設計、トレードオフ分析、失敗モードを考慮してください。複数のアーキテクチャを提案し、それらを比較し、データモデル、APIの境界、デプロイメントに関する選択を正当化するよう依頼してください。最終的に、以下を含む技術仕様を出力させます:コンポーネント、責任、インターフェース、および段階的な実装計画。

その「アーキテクトパス」はAPIコールで数ドルのコストがかかるかもしれませんが、難しい理由付けを先に行います。明確な仮定、制約、リスクを含んだプランが得られ、それは先輩エンジニアの設計文書のように監査可能です。一度承認すれば、その仕様を凍結し、以降のすべての情報の唯一の真実のソースとなります。

次に、安価で高速なモデルに切り替えます—Claude 3 Haiku、GPT-4o mini、またはあなたのAI IDEの内蔵アシスタント—を使用して計画を実行します。仕様の関連部分とローカルファイルのみを渡し、小さな出荷可能な差分を求めます:単一のモジュール、テストスイート、またはマイグレーションスクリプト。レビューし、テストを実行し、プレミアムトークンを消費せずに高速で反復します。

典型的なスタックは次のようになります: - Claude 3 Opus / GPT-4 Turbo: アーキテクチャ、仕様、リスク分析 - Claude 3 Sonnet / GPT-4o: 機能レベルのコード、リファクタリング、ドキュメント - Claude 3 Haiku / GPT-4o mini: 雛形、テスト、軽微な編集

この「設計してから実行する」パターンは、品質を最大化し、コストを管理します。高コストな推論を少数の高シグナルなパスに集中させ、その後にコモディティモデルに繰り返しのコーディングを任せます。また、ばらつきを減らします。すべての変更が承認された計画に遡ることで、不明なリグレッションやコンテキストによって引き起こされる幻覚と戦う必要が少なくなります。

時間が経つにつれて、要件が変わったときに仕様を再生成し、影響を受けた実装ステップだけを再実行することも可能です。その結果は、ロボットと話している感覚ではなく、ソフトウェアのアイデアのためのビルドシステムを操作しているような感じになります。

分割統治:明確さのためのサブエージェントの生成

現代のAIコーディングワークフローは、ますます単一のチャットウィンドウのようには見えず、小さなスタジオの専門エージェントのようになってきています。各チャットセッションは、すべてを記憶しようとする混沌とした汎用スレッドではなく、独自のコンテキスト、履歴、制約を持つ特定の目的の作業台として機能します。

フルスタック機能を想像してください:アバターとアクティビティフィードを持つユーザープロフィール。一人のエージェントは純粋にデータベーススキーマとデータモデルに集中し、もう一人はReact UIを担当し、三人目は統合配線とAPI契約を管理します。

データベーススレッドでは、テーブル、インデックス、移行に関連するすべてをまとめます。PostgreSQLスキーマを反復処理し、Prismaモデルを生成し、外部キーやパフォーマンスについて考慮するように指示しますが、その文脈にReactコンポーネントやCSSが混入することはありません。

一方で、別のReactスレッドがレイアウト、状態管理、コンポーネント構造を担当しています。それは、あなたが貼り付けるAPIの形状のみを参照し、全体のバックエンドコードベースには関与せず、フック、プロップス、Tailwindクラスの詳細に深く入り込むことができます。

これは、Cursor、Replit、GitHub Copilot WorkspaceといったAI IDEが、マルチエージェント思考へと促進する様子を反映しています。彼らは次のことを奨励します: - 高水準の設計のための「アーキテクト」チャット - 特定の変更のためのローカライズされた「ファイル」または「差分」チャット - 関連するコードのみを浮かび上がらせるバックグラウンドインデクサー

レイ・フェルナンド自身のシステムは、このパターンを徹底的なコンテキストの分離で形式化します。彼の My Pro Claude Code Workflow – Ray Fernando のウォークスルーでは、スキーマデザイン、API契約、UIフローのために新しいClaudeセッションを立ち上げ、マスタープロジェクトブリーフを通じてそれらを結び付ける方法が示されています。

このアプローチは、コンテキスト汚染に直接対処します。これは、過密なチャットが半ば忘れた決定や矛盾する指示に脱線する現象です。懸念を分離することで、各モデルのインスタンスを「精神的に」狭くし、高い信号を維持することができ、幻覚や矛盾する提案を減少させます。

あなたの主な高レベルの会話は明確に保たれます:目標、制約、マイルストーン、そしてトレードオフ。サブエージェントが「どうするか」を扱いますが、主要なスレッドは「なぜ」を守り、プロジェクトの真の情報源として機能します。

方向を調整する必要があるときは、まずマスタープランを更新し、その後、専門的なチャットに変更を伝播させます。そのトップダウンの流れにより、混沌としたプロンプトの山が明確なマルチエージェントワークフローに変わり、推論、デバッグ、改善が可能になります。

発送コード、混乱ではなく:スタック・ディフの革命

大規模なAI生成のプルリクエストは印象的に感じられますが、誰かがそれをレビューしようとすると問題が生じます。800行の差分が14ファイルに触れ、リファクタリング、新機能、そしてあっという間の修正が混在しています。この種の変更を信頼性を持って検証できる人間やコードオーナーボットはいないため、チームはそれに対しておざなりに承認するか、永久にブロックするかのどちらかになります。

現代のAIワークフローは、その混乱に対抗するためにスタック差分を採用しています。1つの大きなコミットの代わりに、論理的に隔離された小さな変更のシーケンスとして作業の垂直スライスを出荷します。ここでのタイプの調整、あちらの新しいヘルパー、その後は機能の接続、最後にテストという具合です。各ステップはコンパイルされ、実行され、独立して出荷可能です。

実質的には、モデルがリポジトリレベルではなく差分レベルで操作するように導きます。こう伝えてください:「Xのデータモデルだけを追加する、単一の最小限のコミットを提案してください。コントローラー、UI、テストはまだ不要です。」その後、現在のgit差分をコピーして、ただそのパッチを洗練させるように依頼し、変更がレビュー可能に感じられるまでとどめます。

優れたスタックされたワークフローは、明示的なマイクロプロンプトに変わります。例えば:

  • 1「ステップ1:インターフェースとタイプのみを追加します。」
  • 2「ステップ2:それらの型を使用する純粋関数を追加します。」
  • 3「ステップ3:既存のエンドポイントに統合する。」
  • 4「ステップ4:新しい動作のためのテストとドキュメントを追加する。」

各ステップは、GitHub、GitLab、またはPhabricatorのようなツールが独自の差分スタックとして表示できる別のブランチまたはコミットになります。レビュアーは「バリデーションヘルパーを追加する」という40行の変更を見て、400行のコードが静かに認証を再構築するという驚きを避けることができます。AIと人間の両方に対して文脈を狭く保つことができます。

スタックされた差分により、AIはコードの流し込みから制御された変更生成器へと変わります。これにより、より小さな影響範囲、簡単なロールバック、クリーンなGitの履歴、そして現実的なコードレビューが実現され、AIによって書かれたコードを実際にプロダクションチームのメインブランチに安全にマージすることが可能になります。

最終目標:AIを活用してAIの必要性を減らす

イラスト: 最終目標: AIを活用してAIの必要性を減らす
イラスト: 最終目標: AIを活用してAIの必要性を減らす

良いAIワークフローの逆説的な現実:時間が経つにつれてモデルに依存しなくなる。もしあなたの設定が、毎週オートコンプリートやチャットスレッドにますます依存させるものであれば、それはAIを使っているのではなく、自分の思考をAIに外注しているだけです。

モデルをソクラテス的なパートナーとして扱い、販売機のように扱わないでください。重要な変更を行った後には、コードが何をするのか、その設計が他の選択肢に対してなぜ優れているのか、どこで問題が発生しそうかを説明するように求めてください。自己反論を促し、「このアプローチの弱点を3つ挙げ、安全なパターンを提案してください」と言わせてください。

モデルに、急いでいるときに見落としがちな成果物を生成させましょう:図、文書、ストーリー。以下のものを作成させてください: - リクエストパイプラインのシーケンス図 - 主要なエンティティのデータフローマップ - 平易な英語での1ページのアーキテクチャ概要

その出力を装飾ではなく学習資料として使用してください。それが生成するアーキテクチャ文書を読み、「このサービスをシャーディングすると仮定してこの図を再描画してください」や「この内容をジュニア開発者に5つの箇条書きで説明してください」といったフォローアップを行いましょう。AIがルーチンの図面作成とフォーマットを担当する間に、システムのメンタルモデルを訓練しています。

記憶を積極的にオフロードしましょう。すべてのヘルパー関数や設定フラグを覚えようとするのではなく、AIに生きたインデックスを維持させます。「各モジュールの責任を1~2行で要約してください。」これにより、限られた作業記憶を行番号ではなく概念のキャッシュに変えることができます。

数週間の間に、権力のバランスが変わります。あなたはAIをスキャフォールディング — 定型文、マイグレーション、テストハーネス — に利用し始めますが、アーキテクチャ、インバリアント、および失敗モードはあなたが持ち続けます。このモデルは、リードエンジニアではなく、迅速なペアプログラマーとなります。

Ray FernandoとCole Medinが提唱する成熟したワークフローは、最終的な習得に向かっています。あなたは機能を概略して、80%は自力で実装し、その後、AIを活用して特定のリファクタリング、テスト、およびエッジケースに取り組むべきです。最終的な目的は、AIがあなたを加速させますが、あなたの理解が製品を形作るということです。

あなたのAIコパイロットとの新しいデイリースタンドアップ

1日の始まりに、あなたが構築しているもの、理由、そしてそれがうまくいっているかどうかを確認する方法について、3〜5文の簡単な要約を書きましょう。これがあなたのシードコンテキストです。制約事項を含めてください:ターゲットAPI、パフォーマンス期待値、そして「変更してはいけない」コードベースの領域。

次に、その説明文をマイクロ仕様に変えます。以下のチェックリストを追加してください:3~7の具体的な成果、例えば「/users エンドポイントにページネーションを追加する」や「すべての失敗した認証試行をログに記録する」。これにより、あなたとAI共同操縦者との間に小さくて監査可能な契約が生まれます。

新しいAIセッションを開いてください。プランを貼り付け、その後プロジェクトのインデックスファイル(ルートマップ、主要エントリポイント、スキーマファイル、設定)を添付または貼り付けてください。モデルにはアプリの骨組みを見せたいので、ランダムなユーティリティをすべて見せる必要はありません。

もしあなたのIDEがリポジトリコンテキスト(カーソル、GitHub Copilotワークスペース、Codeium)をサポートしている場合、リポジトリを指し示しつつ、計画を最優先にしてください。モデルにタスクの理解を5〜10の箇条書きで再述するようお願いし、10〜20%でも誤りがあれば修正してください。その誤りはすべての提案に影響を与えます。

アライメントがロックされた状態で、AIに明示的に伝えます:「これをスタックされた差分として、1回の論理的変更ごとに実装してください。」あなたのスタンドアップは以下のループになります: - 次に行う最小の差分を提案する - 影響を受けるファイルを表示する - パッチを生成する - あなたがレビューしてテストを実行する

1画面または2画面に収まるパッチを求めましょう。差分が5ファイルを超えるか、150~200行以上に及ぶ場合は返却してください:「これを小さくてレビュー可能なステップに分割してください。」レイ・フェルナンドのStop Pushing AI Code Straight to Main – Ray Fernandoでは、この規律がどのようにあなたをマージ地獄から救うのかを詳しく説明しています。

各承認された差分の後に、1段落の要約と短いリスクノート(マイグレーション、パフォーマンスの変更、またはAPIの変更点)を求めてください。その要約をコミットメッセージに貼り付けてください。これにより、あなたのGit履歴は「wip again」ではなく、自動生成された変更ログになります。

セッションを終了する際は、モデルをドキュメントアシスタントに切り替えます。存在するドキュメント(README、APIリファレンス、ADRなど)を伝え、具体的な編集内容(新しいセクション、更新された例、非推奨ノート)を求めます。それらの変更をドキュメントリポジトリに最終的な差分としてコピーし、コードと一緒に出荷します。

未来はここにある:あなたは今、指揮者です

あなたはもはや予測エンジンに行を入力するタイピストではなく、モデル、ツール、そして自動化を駆使する指揮者です。仕事は「コードを書く速度を上げる」から「確実に動作するソフトウェアを納品するシステムを設計する」へと変わります。キーストロークは、文脈をどのように形作り、作業を分解し、適切なタスクを適切なAIにタイムリーにルーティングするかということに比べれば重要ではなくなります。

現代のAIコーディングは、ミニプラットフォームを操作しているようなものです。高レベルのプランナーモデル、リポジトリを意識したアシスタント、テスト生成ツール、リファクタリングボットが、すべてエディタやCIに接続されています。最も優れたエンジニアはすでにワークフローで考えています。「要件」エージェントを立ち上げ、「デザイン」エージェント、そして単一のフィーチャーブランチだけに触れる「差分」エージェントを作成します。すべてを1つのモデルに任せるのではなく、パイプラインを整えます。

成功する開発者は、AIをおもちゃのオートコンプリートとしてではなく、インフラストラクチャとして扱う者たちです。彼らは以下を所有します: - 主要な機能の前に文書化されたプロジェクトの設計図 - アーキテクチャ、実装、レビューのための専門的なAIセッションのスタブル - すべての変更がレビュー可能で元に戻せるようにするスタック・ディフスの規律

AI IDEは、このオーケストレーションをネイティブにするための競争を繰り広げています。Cursor、GitHub Copilot、Replitなどのツールは、すでにリポジトリのインデックス作成、テストを意識したリファクタリング、複数ファイルの編集を一つのフローにまとめています。今後12〜24ヶ月以内に、「Run」や「Debug」の隣に「フィーチャープラン」、「コンテキストプロファイル」、「レビュースタック」といった一級の概念が並ぶことを期待してください。

ギャップはモデルアクセスではなく、すべての人がほぼ同様のLLMを持つことになるでしょう。ギャップは、現実世界の複雑さ、バージョン管理、およびチームのワークフローに対応できる堅牢なAI駆動システムを設計できる能力にあります。そのギャップは、あるエンジニアが規律あるAIパイプラインを運営することによって、静かに3〜5倍のレビュー済みの生産準備完了コードを出荷しているチームにすでに見えています。

古い習慣—迅速に行動し、祈る、1,000行の差分、計画ゼロ—はただ時間を無駄にするだけでなく、あなたを積極的に妨害します。指揮者のように行動を始めましょう:まず青写真を作り、文脈を構築し、サブエージェントを生み出し、差分を積み重ね、AIを活用して自分がそれを必要としなくなるようにしましょう。ソフトウェアの未来は「AIがあなたのためにコードを書く」ではなく、AIを使う価値を生み出すオーケストラを指揮するあなた自身です。

よくある質問

「コンテキストエンジニアリング」とは、AI コーディングにおいて、文脈に基づいて情報やデータを整理・構造化し、AI システムがより効果的に理解し、反応できるようにするプロセスです。

プロジェクト情報(計画、図、要約)をAIモデルに構造化して提供することにより、コード生成を行う前に、そのコードベースについて高信号で正確な理解を持たせる手法です。

「プロジェクトファースト、プロンプトファーストでない」アプローチがなぜ優れているのか?

これは高レベルの計画と文書化を最初に強制し、その結果、より一貫性があり、正確で保守可能なAI生成コードが生まれ、再作業やデバッグが減少します。

この高度なAIワークフローにはどのツールが最適ですか?

CursorのようなAIネイティブIDEは理想的です。プロジェクトインデックス、マルチエージェント対話、スタック差分などの機能を統合しており、コンテキストファーストのワークフローを直接サポートします。

このワークフローは、時間が経つにつれてどのようにAIへの依存を減らすのに役立ちますか?

AIを活用して自分のスタックを文書化し理解することで、コードベースの強力なメンタルモデルを構築します。これにより、より複雑で新しいタスクにのみAIを利用し、自分自身でよりシンプルな機能を実装できるようになります。

🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts