TL;DR / Key Takeaways
Warum Ihre „Prompt-and-Pray“-Methode scheitert
Die meisten Entwickler stoßen an die gleiche Wand: Man öffnet Cursor oder VS Code, startet Claude oder GPT‑4, tippt eine clevere Eingabeaufforderung ein und sieht zu, wie es 200 Zeilen Code generiert, die fast funktionieren. Die ersten 10 Minuten fühlen sich magisch an. Die nächsten 2 Stunden verschwinden mit dem Beheben von Off-by-One-Fehlern, fehlenden Imports und Funktionen, die nicht mit deinem tatsächlichen Datenmodell übereinstimmen.
Dieser Schmerz resultiert aus einem stillen Ausfallmodus: Kontextzerfall. Große Modelle jonglieren mit Zehntausenden von Tokens, aber Ihr Projekt überschreitet schnell diese Grenze mit mehreren Dateien, API-Verträgen und halbvergessenen Designentscheidungen. Nach dem dritten oder vierten Prompt „erinnert“ sich die KI nicht mehr daran, warum Sie sich für Postgres und nicht für Firebase entschieden haben oder warum Benutzerrollen in einem separaten Dienst leben.
Kontext-Rot zeigt sich, wenn das Modell selbstbewusst alte Muster wieder einführt, die Sie bereits überarbeitet hatten. Sie bitten es, den neuen `BillingClient` zu aktualisieren, und es belebt den veralteten `StripeService` aus einer früheren Nachricht wieder. Es vergisst die Namen der Umgebungsvariablen, erfindet Typen neu und driftet leise von Ihrer tatsächlichen Architektur ab.
Diese Abweichung hat brutal hohe Kosten. Anstatt eine präzise, chirurgische Differenzierung zu überprüfen, erhält man eine Mischung aus Änderungen: neue Hilfsfunktionen, die über verschiedene Dateien verstreut sind, doppelte Logik und inkonsistente Fehlerbehandlung. Jeder KI-Durchlauf verschärft das Durcheinander, sodass das Debuggen nicht mehr nur um einen Fehler geht, sondern es darum, drei leicht unterschiedliche Versionen derselben Funktion zu vereinen.
Entwickler berichten, dass sie mehr Zeit mit der Prüfung von KI-Ausgaben verbringen als mit dem Schreiben von Code, insbesondere bei Projekten mit mehr als 5-10 Dateien. Sie beobachten: - Doppelte DTOs mit widersprüchlichen Formen - Abweichende Namenskonventionen für dasselbe Konzept - Stille breaking Changes an öffentlichen Schnittstellen
Naives Prompting verbirgt auch Komplexität hinter falscher Zuversicht. Das Modell wird bereitwillig einen „funktionierenden“ OAuth-Flow generieren, der Refresh-Tokens, PKCE oder eine ordnungsgemäße Token-Speicherung ignoriert und Ihnen eine Sicherheitsanfälligkeit hinterlässt, die auf den ersten Blick einwandfrei aussieht. Dasselbe passiert mit Datenbankmigrationen, Hintergrundjobs und Caching-Schichten.
Ein ernsthaftes KI-Coding-Workflow betrachtet das Modell als Teil eines Systems, nicht als Wunderlampe. Das bedeutet Planung, expliziten Projektkontext und stapelbewusste Eingaben, die die KI in deinem tatsächlichen Codebestand verankern, anstatt sich nur auf deine letzte Nachricht zu stützen.
Ändere Deine Denkweise: Werde ein Kontext-Ingenieur
Der Wechsel von „einem Chatbot Anweisungen zu geben“ hin zu einem System zu operieren. Das ist die zentrale Philosophie, zu der Ray Fernando und Cole Medin immer wieder zurückkehren: ernsthaftes AI-Coding bedeutet, Modelle, Werkzeuge und Kontext wie ein Ingenieur zu orchestrieren, der eine Pipeline betreibt, nicht wie ein Benutzer, der in ein Feld tippt. Man fordert nicht einfach Code an; man gestaltet, was das Modell über Ihr Projekt weiß, sieht und sich erinnert.
Traditionelles Prompt Engineering konzentriert sich auf eine Botschaft: das Formulieren einer Anfrage, das Hinzufügen von Einschränkungen und möglicherweise das Einfügen eines Code-Snippets. Das hilft, aber es stößt schnell an seine Grenzen, da jede Interaktion das Verständnis des Modells zurücksetzt. Sie erhalten auf intelligente Weise Antworten auf spezifische Fragen, nicht einen Mitstreiter, der das Repository, die Architektur und den Fahrplan versteht.
Kontextengineering kehrt das um. Sie entwerfen, wie die KI Ihren Stapel aufnimmt: Dokumente, Schemata, APIs, Datenflüsse und Einschränkungen. Anstatt eines einzelnen cleveren Kommandos bauen Sie ein dauerhaftes Projektbewusstsein mithilfe von Werkzeugen wie Repository-Indexern, Projektzusammenfassungen und strukturierten „System“-Befehlen, die mit jeder Anfrage mitreisen.
Rays Arbeitsabläufe betrachten das Kontextfenster – ob 8K, 32K oder 200K Token – als knappe, wertvolle Ressource. Er empfiehlt, hochsignifikante Artefakte zu kuratieren: eine einseitige Architekturübersicht, Funktionsspezifikationen, Datenmodelle und Abhängigkeitskarten. Diese leben als wiederverwendbare Kontextblöcke, die Sie vor der Entwicklung neuer Funktionen in Cursor, Claude oder GPT-ähnliche Modelle einspeisen.
Denken Sie daran, dass es einen Unterschied gibt zwischen einem erfahrenen Ingenieur und einem neuen Praktikanten. Der erfahrene Ingenieur hat die Entwurfsdokumente gelesen, versteht die Abwägungen und erinnert sich an diese seltsame Migration von vor sechs Monaten. Der Praktikant sieht nur die eine Datei, die Sie ihm gegeben haben, und hat keine Ahnung, warum irgendetwas so strukturiert ist, wie es ist.
Promptgesteuerte Workflows verwandeln Ihre KI in einen Praktikanten: reaktiv, kurzsichtig und ständig überrascht von bestehenden Mustern. Kontextgesteuerte Workflows verwandeln sie in einen Senior-Entwickler, der über Module hinweg argumentieren, architektonische Regressionen erkennen und konsistente Abstraktionen vorschlagen kann. Dasselbe Modell, radikal unterschiedliches Verhalten.
Betriebe deinen KI-Stack wie eine Infrastruktur, nicht wie ein Spielzeug. Sobald du verinnerlichst, dass du ein Kontextingenieur bist, ändert sich jeder Teil deines Arbeitsablaufs: wie du Dokumente schreibst, wie du Repos strukturierst und wie du mit dem Modell kommunizierst.
Bauplan vor dem Bau: Das Projekt-erste Mandat
Blueprint-first-Workflows beginnen mit etwas aggressiv Niedrigtechnologischem: einem schriftlichen Plan. Ray Fernando betrachtet dies als nicht verhandelbar; er weigert sich, Cursor oder Claude zu öffnen, bevor er ein Projektdokument hat, das wie eine Mini-Produktbeschreibung, ein Architekturskizze und ein Testplan in einem vereint.
Dieses Dokument beginnt mit Funktionsanforderungen in einfacher Sprache. Er schreibt Benutzergeschichten, explizite "fertig"-Kriterien und Einschränkungen wie Leistungsziele, Latenzbudgets oder Browserunterstützung, damit das Modell nicht stillschweigend für das falsche Ziel optimieren kann.
Als Nächstes kommt der Datenfluss. Ray ordnet Entitäten, Eingaben, Ausgaben und wie Daten im System bewegt werden: Anfrage-Payloads, Datenbankschemas, Cache-Schichten, externe APIs und Hintergrundjobs. Wenn eine Funktion Authentifizierung, Abrechnung und Benachrichtigungen berührt, wird jeder Schritt benannt und beschrieben, bevor auch nur eine Zeile Code existiert.
Er legt dann die Entscheidungen zum Tech-Stack fest, anstatt sie den Vorgaben des Modells zu überlassen. Der Plan spezifiziert Sprache, Framework, ORM, Warteschlangensystem, Testwerkzeuge und Zielumgebung, oft bis hin zu den Versionen: „Next.js 15, React Server Components, Prisma mit PostgreSQL, Redis zur Ratenbegrenzung, Vitest für Unit-Tests, GitHub Actions für CI.“
Ray zwingt auch zu einer Betrachtung von Grenzfällen und Fehlerszenarien. Er listet Szenarien wie „teilweise Zahlungsbestätigung“, „Webhook-Wiederholungen“, „veraltetes JWT“ oder „mobile Offline-Synchronisierung“ auf und weist darauf hin, wie das System sich verhalten oder erholen sollte. Diese Punkte werden später zu Testaufforderungen und Überprüfungen des Monitorings.
Dieses ursprüngliche Dokument wird der Seed-Kontext für die gesamte KI-Sitzung. Er fügt es in einen neuen Chat ein und behandelt es als den Vertrag: Jede nachfolgende Eingabe bezieht sich auf Abschnitte des Plans, anstatt das Projekt von Grund auf neu zu erklären.
Dieser Schritt verhindert, dass das Modell Architekturen erfindet. Keine überraschenden MongoDBs, wenn du Postgres meintest, keine geheimnisvollen Mikroservices, wenn du einen Monolithen wolltest, keine automatisch generierte Authentifizierung, wenn du bereits Auth0 verwendest. Das Modell kann nur innerhalb des Rahmens, den du definiert hast, „kreativ“ sein.
Sie können diese Disziplin in seinen Live-Bauten und tiefgehenden Analysen auf dem Ray Fernando YouTube-Kanal – KI-Codierung und Workflows beobachten, wo der Plan, nicht der Prompt, die gesamte Codierungssitzung steuert.
Das Gedächtnis der KI meistern: Kontext als Ressource
Kontext funktioniert wie RAM für deinen KI-Paarprogrammierer: schnell, leistungsstark und absolut begrenzt. Moderne LLMs jonglieren mit einer Bandbreite von 8.000 bis 200.000 Tokens, aber dieses Fenster füllt sich erschreckend schnell, sobald du Framework-Klebercode, Drittanbieterbibliotheken und deine eigenen halb-dokumentierten Dienste hinzufügst. Behandle diesen Raum als ein Budget, nicht als einen bodenlosen Abgrund.
Die meisten Entwickler verbrennen dieses Budget, indem sie rohe Dateien einfügen, bis das Modell erschöpft ist. Sie erhalten teilweise Verständnis, illusorische Benutzeroberflächen und „hilfreiche“ Neuformulierungen des falschen Moduls. Ray Fernandos Ansatz wendet das um: Sie investieren früh in eine kompakte, signalstarke Projektzusammenfassung, die mit jeder Anfrage mitreisst, sodass das Modell sich sofort orientiert.
Automatisierte Projekt-Indexer sind hier das leistungsstarke Werkzeug. Anstatt 120 Dateien zu liefern, erstellen Sie ein strukturiertes „Inhaltsverzeichnis“, das lediglich 2–5% der Repository-Größe ausmacht, aber 80–90% dessen, was die KI benötigt, kodiert. Dieses Index kann beinhalten: - Hochrangige Architektur - Schlüsselmodule und deren Verantwortlichkeiten - Datenmodelle und Beziehungen - Externe APIs und Integrationspunkte
Tools wie Cursor, Windsurf und benutzerdefinierte CLI-Skripte können dieses Index während der Weiterentwicklung des Projekts aufrechterhalten. Cursors repo-level prompts ermöglichen es Ihnen, diese Zusammenfassung als dauerhafte Anweisung zu fixieren, sodass jeder Chat, jede Bearbeitung und jeder „das bitte fixen“-Befehl durch dasselbe gemeinsame mentale Modell läuft. Sie geben der KI effektiv ein dauerhaftes Entwurfsdokument, anstatt Ihren Stack von Grund auf neu zu erklären.
Systemanweisungen fungieren als die Richtlinienebene über diesem Kontext. In Cursor können Sie Regeln festlegen wie „niemals Authentifizierung anfassen“, „bevorzuge funktionale React-Komponenten“ oder „aller neuer Code muss Jest-Tests enthalten.“ Diese Leitplanken existieren über einzelnen Nachrichten, sodass die KI sie respektiert, selbst wenn Sie sich auf einen kleinen Unterschied konzentrieren.
Ein hochsignifikanter Kontext übertrifft jedes Mal das rohe Volumen. Eine Zusammenfassung der Architektur mit 1.500 Tokens, ein Datenschema und eine Routing-Karte werden 20.000 Tokens von ungefilterten Controllern, Hilfsfunktionen und totem Code übertreffen. Sie wollen, dass die KI die Karte liest, nicht durch Ihre node_modules kämpft.
Rauschen beeinträchtigt die Modellleistung schon lange bevor Sie an die harte Token-Grenze stoßen. Indem Sie ein Projektindex und ein Repository-Prompt kuratieren, komprimieren Sie Ihren Code in etwas, über das ein Modell konsistent nachdenken kann. Das ist der Sprung von „Dateien einfügen, bis es nicht mehr funktioniert“ zu einem echten, kontextorientierten Workflow.
Nutze deine beste KI, um zu denken, nicht nur um zu tippen.
Die meisten Menschen behandeln ihr smartestes Modell wie einen sehr schnellen Tastenschreiber. Workflow-Ingenieure wie Ray Fernando und Cole Medin behandeln es wie einen Chefarchitekten. Man bezahlt Claude 3 Opus oder GPT-4 Turbo nicht, um for-Schleifen abzuarbeiten; man bezahlt sie, um zu entscheiden, was überhaupt existieren sollte.
Nutzen Sie Ihr hochentwickeltes Modell für komprimiertes Denken: Systemdesign, Abwägungsanalysen und Fehlermodi. Fordern Sie es auf, mehrere Architekturen vorzuschlagen, diese zu vergleichen und die Entscheidungen zu den Datenmodellen, API-Grenzen und Bereitstellungen zu rechtfertigen. Lassen Sie es ein schriftliches technisches Spezifikation ausgeben: Komponenten, Verantwortlichkeiten, Schnittstellen und einen schrittweisen Implementierungsplan.
Dieser „Architektenpass“ könnte ein paar Dollar in API-Anrufen kosten, aber er lädt das schwierige Denken vorab. Sie erhalten einen Plan mit expliziten Annahmen, Einschränkungen und Risiken, den Sie wie ein Entwurfsdokument eines erfahrenen Ingenieurs überprüfen können. Sobald Sie ihn genehmigen, fixieren Sie diese Spezifikation als einzige Quelle der Wahrheit für alles, was folgt.
Dann wechseln Sie zu günstigeren, schnelleren Modellen – Claude 3 Haiku, GPT-4o mini oder dem integrierten Assistenten Ihrer KI-IDE –, um den Plan umzusetzen. Füttern Sie sie nur mit dem relevanten Abschnitt der Spezifikation sowie den lokalen Dateien und fordern Sie kleine, versandbereite Diffs an: ein einzelnes Modul, eine Test-Suite oder ein Migrationsskript. Überprüfen, Tests durchführen und in hoher Geschwindigkeit iterieren, ohne teure Token zu verbrauchen.
Ein typischer Stapel könnte folgendermaßen aussehen: - Claude 3 Opus / GPT-4 Turbo: Architektur, Spezifikationen, Risikobewertung - Claude 3 Sonett / GPT-4o: Code auf Feature-Ebene, Refaktorisierungen, Dokumentation - Claude 3 Haiku / GPT-4o mini: Boilerplate, Tests, kleinere Änderungen
Dieses Muster „Architektur dann Ausführung“ maximiert die Qualität und kontrolliert die Kosten. Sie konzentrieren teures Denken auf einige wenige hochsignalgebende Durchläufe und lassen dann allgemeine Modelle die wiederkehrende Codierung übernehmen. Zudem reduzieren Sie die Varianz: Wenn jede Änderung auf einen geprüften Plan zurückverfolgt werden kann, haben Sie weniger mysteriöse Rückschläge und kontextinduzierte Halluzinationen zu bekämpfen.
Im Laufe der Zeit können Sie sogar die Spezifikation regenerieren, wenn sich die Anforderungen ändern, und dann nur die betroffenen Implementierungsschritte erneut ausführen. Das Ergebnis fühlt sich weniger an wie ein Gespräch mit einem Roboter und mehr wie das Betreiben eines Build-Systems für Softwareideen.
Teilen und Herrschen: Unter-Agenten zur Klarheit erzeugen
Moderne KI-Coding-Workflows sehen zunehmend weniger aus wie ein einzelnes Chatfenster und mehr wie ein kleines Studio von Fachagenten. Jede Chat-Sitzung wird zu einer fokussierten Arbeitsumgebung für ein bestimmtes Anliegen, mit eigenem Kontext, Geschichte und Einschränkungen, anstatt einem chaotischen Allzweck-Thread, der versucht, sich an alles zu erinnern.
Stellen Sie sich ein vollständig integriertes Feature vor: Benutzerprofile mit Avataren und Aktivitätsfeeds. Ein Agent konzentriert sich ausschließlich auf das Datenbankschema und das Datenmodell, ein anderer kümmert sich um die React-Benutzeroberfläche, und ein dritter verwaltet die Integrationsverdrahtung und die API-Verträge.
Im Datenbank-Thread parkst du alles, was mit Tabellen, Indizes und Migrationen zu tun hat. Du bittest ihn, ein PostgreSQL-Schema zu durchlaufen, Prisma-Modelle zu generieren und über Fremdschlüssel und Leistung nachzudenken, ohne dass React-Komponenten oder CSS diesen Kontext jemals trüben.
In der Zwischenzeit verwaltet ein separater React-Thread das Layout, das State-Management und die Komponentenstruktur. Er kann sich tief in die Details von Hooks, Props und Tailwind-Klassen vertiefen und bezieht sich dabei nur auf die API-Strukturen, die Sie einfügen, nicht auf die gesamte Backend-Codebasis.
Dies spiegelt wider, wie KI-IDEs wie Cursor, Replit und GitHub Copilot Workspace Sie zu mulitagentlichem Denken anregen. Sie fördern: - Einen „Architekten“-Chat für hochrangige Designs - Lokalisierte „Datei“- oder „Diff“-Chats für spezifische Änderungen - Hintergrundindexer, die nur relevante Codes sichtbar machen
Ray Fernandos eigene Systeme formalisierten dieses Muster mit gnadenloser Kontexttrennung. Sein My Pro Claude Code Workflow – Ray Fernando Leitfaden zeigt, wie er frische Claude-Sitzungen für Schema-Design, API-Verträge und UI-Workflows erstellt und sie dann durch ein übergeordnetes Projektbriefing miteinander verknüpft.
Dieser Ansatz bekämpft direkt die Kontextverschmutzung, bei der ein überfüllter Chat in halbvergessene Entscheidungen und widersprüchliche Anweisungen abdriftet. Indem Sie Anliegen isolieren, halten Sie jede Modellinstanz „mental“ eng und signalstark, was Halluzinationen und widersprüchliche Vorschläge reduziert.
Ihr Hauptgespräch auf hohem Niveau bleibt klar: Ziele, Einschränkungen, Meilensteine und Abwägungen. Unteragenten kümmern sich um das "Wie", aber der primäre Faden bewahrt das "Warum" und fungiert als die Quelle der Wahrheit des Projekts.
Wenn Sie die Richtung anpassen müssen, aktualisieren Sie zuerst den Masterplan und leiten dann die Änderungen in die spezialisierten Chats weiter. Dieser Top-Down-Flow verwandelt einen durcheinanderstehenden Prompt-Haufen in einen expliziten, multikünstlichen Workflow, über den Sie nachdenken, debuggen und verbessern können.
Versandcode, keine Chaos: Die Revolution der gestapelten Diffs
Massive, von KI generierte Pull-Requests wirken beeindruckend, bis jemand versucht, sie zu überprüfen. Man erhält Diff-Dateien mit 800 Zeilen, die 14 Dateien berühren und Refactoring, neue Funktionen und Schnellreparaturen vermischen. Kein Mensch oder Code-Eigentümer-Bot kann eine solche Änderung zuverlässig validieren, weshalb Teams entweder einfach zustimmen oder sie für immer blockieren.
Moderne KI-Workflows bekämpfen dieses Chaos mit gestapelten Diffs. Anstelle eines riesigen Commits liefern Sie einen vertikalen Abschnitt Ihrer Arbeit als eine Sequenz aus kleinen, logisch isolierten Änderungen: hier eine Typanpassung, dort ein neuer Helfer, dann die Verkabelung der Funktion und anschließend die Tests. Jeder Schritt wird kompiliert, ausgeführt und kann unabhängig ausgeliefert werden.
Praktisch führst du das Modell dazu, auf der Diff-Ebene und nicht der Repository-Ebene zu arbeiten. Sage ihm: „Schlage einen einzelnen, minimalen Commit vor, der nur das Datenmodell für X hinzufügt. Keine Controller, keine Benutzeroberfläche, noch keine Tests.“ Dann fügst du den aktuellen Git-Diff ein, bittest es, nur diesen Patch zu verfeinern und stoppst, sobald die Änderung überprüfbar erscheint.
Gut gestapelte Arbeitsabläufe verwandeln sich in explizite Mikro-Aufforderungen, zum Beispiel:
- 1„Schritt 1: Fügen Sie nur Schnittstellen und Typen hinzu.“
- 2„Schritt 2: Füge reine Funktionen hinzu, die diese Typen verwenden.“
- 3„Schritt 3: In bestehende Endpunkte integrieren.“
- 4„Schritt 4: Fügen Sie Tests und Dokumentationen für das neue Verhalten hinzu.“
Jeder Schritt wird zu einem separaten Branch oder Commit, den Tools wie GitHub, GitLab oder Phabricator als eigenen Diff-Stack anzeigen können. Prüfer sehen eine 40-Zeilen-Änderung, die "Validierungshelfer hinzufügt", und nicht eine 400-Zeilen-Überraschung, die stillschweigend die Authentifizierung umschreibt. So bleibt der Kontext für die KI und die Menschen übersichtlich.
Gestapelte Diffs verwandeln KI von einem Code-Schlauch in einen kontrollierten Änderungsgenerator. Sie erhalten kleinere Explosionsradius, einfachere Rollbacks, eine sauberere Git-Historie und realistische Code-Überprüfungen, was es ermöglicht, von KI geschriebener Code tatsächlich sicher in den Hauptbranch eines Produktionsteams zu integrieren.
Das Endziel: KI nutzen, um weniger auf KI angewiesen zu sein.
Die kontraintuitive Realität guter KI-Workflows: Sie führen dazu, dass man das Modell im Laufe der Zeit weniger benötigt. Wenn dein Setup dich wöchentlich abhängiger von Autocomplete und Chat-Threads macht, dann programmierst du nicht mit KI - du lagert dein Denken an sie aus.
Behandle das Modell als einen sokratischen Partner, nicht als Verkaufsautomat. Nach jeder wesentlichen Änderung bitte es, zu erklären, was der Code tut, warum dieses Design anderen Alternativen vorzuziehen ist und wo es wahrscheinlich scheitern wird. Fordere es dazu auf, mit sich selbst zu diskutieren: „Nenne 3 Schwächen dieses Ansatzes und schlage sicherere Muster vor.“
Fordern Sie das Modell auf, Artefakte zu generieren, die Sie normalerweise überspringen würden, wenn Sie es eilig haben: Diagramme, Dokumente und Narrative. Lassen Sie es Folgendes erstellen: - Ein Sequenzdiagramm für Ihre Anforderungs-Pipeline - Eine Datenflusskarte für Ihre wichtigsten Entitäten - Eine einseitige Architekturübersicht in einfachem Englisch
Nutze diese Ergebnisse als Lernmaterial, nicht als Dekoration. Lies die Architekturdokumente, die sie erstellt, und stelle dann Folgefragen wie: „Zeichne dieses Diagramm neu, wenn wir diesen Service sharden“ oder „Erkläre das einem junior Entwickler in 5 Punkten.“ Du trainierst dein eigenes mentales Modell des Systems, während die KI das mühsame Zeichnen und Formatieren erledigt.
Lassen Sie das Auswendiglernen nachdrücklich los. Anstatt zu versuchen, jede Hilfsfunktion oder Konfigurationsflagge zu merken, lassen Sie die KI ein lebendiges Verzeichnis führen: „Fassen Sie die Verantwortlichkeiten jedes Moduls in 1–2 Sätzen zusammen.“ Dadurch wird Ihr begrenzter Arbeitsgedächtnis in einen Cache von Konzepten und nicht von Zeilenummern verwandelt.
Über die Wochen verschiebt sich das Machtverhältnis. Sie beginnen, KI für die Strukturierung zu verwenden — Vorlagen, Migrationen, Testumgebungen — während Sie die Architektur, Invarianten und Fehlermodi selbst kontrollieren. Das Modell wird zu einem schnellen Programmierpartner, nicht zum leitenden Ingenieur.
Reife Arbeitsabläufe, die Ray Fernando und Cole Medin empfehlen, streben schließlich nach Meisterschaft. Sie sollten in der Lage sein, ein Feature zu skizzieren, 80 % davon eigenständig umzusetzen und dann KI für gezielte Refaktorisierungen, Tests und Randfälle hinzuzuziehen. Das Endziel: KI unterstützt Sie, aber Ihr Verständnis liefert das Produkt.
Ihr neues tägliches Stand-up mit Ihrem KI-Co-Piloten
Beginne deinen Tag damit, eine 3-5 Satz umfassende Zusammenfassung in einfacher Sprache zu schreiben: Was du baust, warum und wie du feststellen wirst, dass es funktioniert. Dies ist dein Seed-Kontext. Füge Einschränkungen hinzu: Ziel-API, Leistungserwartungen und alle Bereiche des Codes, die auf keinen Fall geändert werden dürfen.
Als Nächstes verwandeln Sie diesen Text in eine Mikro-Spezifikation. Fügen Sie eine Checkliste mit 3–7 konkreten Ergebnissen hinzu, wie „Pagination zum /users-Endpunkt hinzufügen“ oder „Alle fehlgeschlagenen Authentifizierungsversuche protokollieren“. Sie haben jetzt einen kleinen, überprüfbaren Vertrag zwischen Ihnen und Ihrem KI-Co-Piloten.
Öffnen Sie jetzt eine neue AI-Sitzung. Fügen Sie den Plan ein, und fügen Sie dann die Indexdateien Ihres Projekts an oder fügen Sie sie ein: Routenpläne, Haupt-Eingangspunkte, Schema-Dateien und Konfiguration. Sie möchten, dass das Modell das Skelett der App sieht, nicht jede beliebige Hilfsfunktion.
Wenn Ihre IDE den Repo-Kontext unterstützt (Cursor, GitHub Copilot Workspace, Codeium), weisen Sie sie auf das Repository hin, behalten Sie jedoch den Plan im Vordergrund. Bitten Sie das Modell, sein Verständnis der Aufgabe in 5–10 Bulletpoints neu zu formulieren. Korrigieren Sie alles, was auch nur um 10–20% abweicht, da dieser Fehler sich in jedem Vorschlag niederschlagen wird.
Mit gesperrter Ausrichtung sage der KI ausdrücklich: „Setze dies als gestapelte Diffs um, eine logische Änderung nach der anderen.“ Dein Standup wird nun zu einer Schleife von: - Schlage das nächste kleinste Diff vor - Zeige die Dateien, die betroffen sind - Erstelle den Patch - Du überprüfst und führst Tests durch
Bestehe auf Patches, die auf einen oder zwei Bildschirme passen. Wenn ein Diff mehr als ~5 Dateien oder 150–200 Zeilen berührt, schicke es zurück: „Teile das in kleinere, überprüfbare Schritte auf.“ Ray Fernandos Stop Pushing AI Code Straight to Main – Ray Fernando erklärt genau, warum diese Disziplin dich vor dem Merge-Hell bewahrt.
Nach jeder akzeptierten Änderung bitten Sie um eine einseitige Zusammenfassung und einen kurzen Risikohinweis: Migrationen, Leistungsänderungen oder Anpassungen der API-Oberfläche. Fügen Sie diese Zusammenfassung in Ihre Commit-Nachricht ein. Ihre Git-Historie wird so zu einem automatisch generierten Änderungsprotokoll statt „wip again“.
Beenden Sie die Sitzung, indem Sie das Modell zu einem Dokumentationsassistenten umwandeln. Informieren Sie es über die vorhandenen Dokumente – README, API-Referenz, ADRs – und bitten Sie um konkrete Änderungen: neue Abschnitte, aktualisierte Beispiele, Abkündigungsnotizen. Kopieren Sie diese Änderungen in Ihr Dokumentations-Repository als finalen Unterschied und versenden Sie es zusammen mit dem Code.
Die Zukunft ist da: Du bist jetzt ein Maestro
Du bist kein Schreibkraft mehr, die Zeilen in eine Vorhersagemaschine eingibt; du bist ein Dirigent, der ein Orchester aus Modellen, Werkzeugen und Automatisierungen leitet. Der Job hört auf, „Code schneller zu schreiben“ zu sein und wird zu „ein System zu entwerfen, das zuverlässig funktionierende Software liefert“. Tastenanschläge sind weniger wichtig als die Art und Weise, wie du den Kontext formst, Aufgaben zerlegst und die richtige Aufgabe zur richtigen Zeit an die richtige KI weiterleitest.
Moderne KI-Programmierung ähnelt dem Betrieb einer Mini-Plattform: ein hochrangiges Planungsmodell, repo-bewusste Assistenten, Testgeneratoren und Refactoring-Bots, die alle in Ihren Editor und CI integriert sind. Die stärksten Ingenieure denken bereits in Workflows: starten Sie einen „Anforderungs“-Agenten, einen „Design“-Agenten und dann einen „Diff“-Agenten, der nur einen einzigen Feature-Zweig bearbeitet. Sie fordern nicht von einem Modell, alles zu erledigen; Sie orchestrieren eine Pipeline.
Die Entwickler, die erfolgreich sein werden, sind diejenigen, die KI als Infrastruktur und nicht als Spielerei zur Autovervollständigung betrachten. Sie werden verfügen über: - Einen dokumentierten Projektplan vor jeder größeren Funktion - Eine Reihe spezialisierter KI-Sitzungen für Architektur, Implementierung und Überprüfung - Eine Disziplin der gestapelten Diffs, die jede Änderung überprüfbar und umkehrbar hält
KI-IDEs wetteifern darum, diese Orchestrierung nativ zu gestalten. Werkzeuge wie Cursor, GitHub Copilot und Replit bündeln bereits Repo-Indexierung, testbewusste Refaktorisierungen und Multi-Datei-Bearbeitungen in einem einzigen Workflow. Erwarten Sie, dass erstklassige Konzepte wie „Feature-Plan“, „Kontextprofil“ und „Review-Stack“ in den nächsten 12–24 Monaten neben „Ausführen“ und „Debuggen“ in Ihrem Editor erscheinen.
Die Kluft wird nicht im Zugang zu Modellen liegen; jeder wird ungefähr ähnliche LLMs haben. Die Kluft wird darin bestehen, wer robuste KI-gestützte Systeme entwerfen kann, die der Komplexität der realen Welt, der Versionskontrolle und den Teamarbeitabläufen standhalten. Diese Kluft ist bereits bei Teams sichtbar, in denen ein Ingenieur stillschweigend 3–5 Mal mehr überprüften, produktionsbereiten Code liefert, indem er eine disziplinierte KI-Pipeline betreibt.
Alte Gewohnheiten – schnelles Handeln und Beten, 1.000-zeilige Diffs, null Planung – verschwenden nicht nur Zeit; sie sabotieren dich aktiv. Fang an, wie ein Dirigent zu agieren: Plane zuerst, gestalte den Kontext, erzeuge Unteragenten, stapel deine Diffs und nutze KI, um weniger auf sie angewiesen zu sein. Die Zukunft der Software besteht nicht darin, dass „KI Code für dich schreibt“; sie besteht darin, dass du das Orchester leitest, das KI nutzbringend macht.
Häufig gestellte Fragen
Was ist 'Kontextengineering' im AI-Coding?
Es ist die Praxis, Projektinformationen (Pläne, Diagramme, Zusammenfassungen) strukturiert an ein KI-Modell zu übermitteln, um sicherzustellen, dass es ein hochpräzises und genaues Verständnis der Codebasis hat, bevor es Code generiert.
Warum ist ein „projektorientierter, nicht prompt-orientierter“ Ansatz besser?
Es zwingt zu einer sorgfältigen Planung und Dokumentation an erster Stelle, was zu kohärenterem, genauerem und wartbarem, KI-generiertem Code führt und den Aufwand für Nacharbeiten und Fehlersuche verringert.
Welche Werkzeuge sind am besten für diesen fortgeschrittenen KI-Workflow geeignet?
KI-native IDEs wie Cursor sind ideal. Sie integrieren Funktionen wie Projektindizierung, Multi-Agenten-Gespräche und gestapelte Diffs, die direkt kontextbasierte Arbeitsabläufe unterstützen.
Wie hilft Ihnen dieser Arbeitsablauf, im Laufe der Zeit weniger von KI abhängig zu sein?
Durch den Einsatz von KI zur Dokumentation und zum Verständnis Ihres eigenen Stacks entwickeln Sie ein starkes mentales Modell des Codes. Dies befähigt Sie, einfachere Funktionen selbst zu implementieren, wobei Sie KI nur für komplexere, neuartige Aufgaben nutzen.