Microsofts KI-Chef: Die Zwei-Personen-Falle

Der EVP für KI von Microsoft erläutert, warum die meisten Menschen KI falsch nutzen und unterteilt sie in zwei verschiedene Gruppen. Entdecken Sie den notwendigen kulturellen Wandel, um in der neuen Ära der Softwareentwicklung zu überleben und erfolgreich zu sein.

Stork.AI
Hero image for: Microsofts KI-Chef: Die Zwei-Personen-Falle
💡

TL;DR / Key Takeaways

Der EVP für KI von Microsoft erläutert, warum die meisten Menschen KI falsch nutzen und unterteilt sie in zwei verschiedene Gruppen. Entdecken Sie den notwendigen kulturellen Wandel, um in der neuen Ära der Softwareentwicklung zu überleben und erfolgreich zu sein.

Microsofts neues 'Agent Factory' ist da

Microsoft hat in diesem Jahr still und leise seine AI-Organisationsstruktur umgestaltet, und die neue Verbindung verläuft durch Core AI, ein Team, das einst separate Universen vereint: die Entwicklerabteilung und die Cloud-Infrastrukturgruppe. Jay Parikh, der direkt an Satya Nadella berichtet, verantwortet nun alles von Visual Studio und GitHub-ähnlichen Werkzeugen bis hin zu den Azure-Clustern, die große Sprachmodelle trainieren und betreiben. Anstatt Funktionen zwischen isolierten Teams hin und her zu schieben, agiert Core AI als eine einzige Produktgruppe mit einem Auftrag: den Stapel zu entwickeln, auf dem alle anderen aufbauen werden.

Parikh beschreibt diesen Stack als „evolutionär“, aber die Konturen sind bereits klar. An der Spitze befinden sich KI-native Tools, die neu denken, wie Software geschrieben, getestet und bereitgestellt wird, mit Copiloten, die in den Entwicklungslebenszyklus integriert sind, anstatt an eine IDE angedockt zu werden. Darunter liegt Foundry, Microsofts sogenannte „Agentenfabrik“, eine Plattform, auf der Unternehmen KI-Agenten entwerfen, bereitstellen und überwachen, die eher wie digitale Mitarbeiter als wie statische Apps agieren.

Foundry ist nicht nur eine Hosting-Schicht; es ist das meinungsstarke Zentrum desStacks. Hier integrieren Unternehmen Agenten in interne Daten, verbinden sie mit Tools und APIs und beobachten, wie sie in der Produktion laufen, mit einer Beobachtbarkeit, die mehr wie ein Sicherheitsoperationszentrum als ein traditionelles Dashboard aussieht. Microsoft möchte, dass Foundry der Ort ist, an dem Entwickler aufhören, mit Rohmodellen zu kämpfen, und beginnen, höherstufige Verhaltensweisen zu komponieren.

Dem Ganzen zugrunde liegt eine Sicherheits- und Vertrauensebene, die davon ausgeht, dass KI nicht deterministisch und potenziell gefährlich ist. Anstelle von nachträglichen Prüfungen integriert Core AI Richtlinienkontrollen, Sicherheitssysteme und Compliance-Anbindungen genau dort, wo Agenten Zugang zu ihren Werkzeugen und Daten erhalten. Das Ziel ist, „per Standard sicher“ auf Denksysteme anzuwenden, die planen, Werkzeuge einsetzen und autonom innerhalb der sensibelsten Arbeitsabläufe eines Unternehmens agieren.

Schließlich entwirft Microsoft den Stack für flexible Bereitstellungen: zuerst die Cloud, aber nicht nur die Cloud. Das gleiche Programmiermodell muss sich über Azure-Regionen, regulierte souveräne Clouds und Edge-Hardware in Fabriken, Einzelhandelsgeschäften oder Feldgeräten erstrecken. Für Entwickler ist diese Abstraktion der entscheidende Punkt – ein Modell dafür, wie Agenten funktionieren, unabhängig davon, wo die GPUs, CPUs oder Daten physisch sitzen.

Der wahre Grund für eine vollständige Rückkehr ins Büro

Illustration: Der wahre Grund für die vollständige Rückkehr ins Büro
Illustration: Der wahre Grund für die vollständige Rückkehr ins Büro

Microsofts neues KI-Expertenteam kehrt fünf Tage die Woche an die Schreibtische zurück, und es ist nicht die Nostalgie für 2019, die diesen Schritt antreibt. Jay Parikh, Executive Vice President von Core AI, argumentiert, dass ein verteiltes Team zu viel Zeit durch trägeres Feedback und verpasste Zufälle verliert, wenn sich Modelle, Werkzeuge und Protokolle wie MCP wöchentlich ändern.

Parikhs Vorstellung ist einfach: Künstliche Intelligenz entwickelt sich exponentiell, und die Menschen benötigen eine ebenso schnelle Lernschleife, um Schritt zu halten. Er sagt, der einzige Weg, dies im großen Maßstab zu erreichen, ist enge, persönliche Zusammenarbeit, bei der Coaching, Debugging und Experimentierung kontinuierlich stattfinden, nicht in festgelegten einstündigen Blöcken auf Teams.

Innerhalb von Microsofts KI-Bereichen kann ein beiläufiger Kommentar ebenso wertvoll sein wie eine formelle Schulung. Ein Ingenieur könnte ein neues Copilot-Promptmuster erwähnen, das die Ausführung einer Testreihe von Stunden auf Minuten verkürzt, oder einen Trick zur Verknüpfung von Tools über einen Agenten, der die Bearbeitungszeit für Support-Tickets halbiert, und plötzlich steigert sich das gesamte Team.

Diese Mikro-Lektionen verbreiten sich selten über Slack oder E-Mail mit derselben Genauigkeit. In einem Flur kann jemand einen Laptop schnappen, die Aufforderung wiedergeben, die Struktur anpassen und die Ergebnisse in Echtzeit beobachten, während drei andere Personen in den Kontextfenstern, den zugrunde liegenden Daten oder den Sicherheitsvorkehrungen mit einsteigen.

Parikh beschreibt es als den Aufbau eines „Live-Labors“, in dem Entdeckung sozial und kontinuierlich erfolgt. Anstatt dass Einzelpersonen isoliert mit Copilot experimentieren, konzentrieren sich Teams auf schwierige Probleme: wie man einen Agenten dazu bringt, sicher mit Produktionsdaten zu arbeiten, wie man Halluzinationen in einem Finanzworkflow reduziert, wie man Prompts entwirft, die auch von Nicht-Ingenieuren tatsächlich gepflegt werden können.

Der kontraintuitive Aspekt dabei ist, dass das Beherrschen eines digital-first Tools jetzt stark von physischer Präsenz abhängt. Parikhs Ansicht: Je leistungsfähiger die KI, desto wichtiger wird der Austausch von Mustern zwischen Menschen, denn die Vielfalt der möglichen Arbeitsabläufe explodiert, und kein Dokumentationsset kann damit Schritt halten.

Remote-Arbeit macht nach wie vor Sinn für stabile, gut verstandene Systeme. Doch für Microsofts hochmoderne KI-Plattform – bei der Modelle, SDKs und Einsatzmöglichkeiten innerhalb von Monaten von der Cloud zu Edge-Geräten wechseln – setzt Parikh darauf, dass Nähe, nicht Bandbreite, der eigentliche Produktivitätsmultiplikator ist.

Es ist ein Kulturkampf, kein Technologiewettbewerb.

Kultur, nicht Technik, dominiert den Kalender von Jay Parikh. Er sagt, dass etwa 90 Prozent seiner Gespräche mit Führungskräften der Fortune 500 nichts mit Modellgrößen, GPU-Zahlen oder Rechenzentrumsflächen zu tun haben, sondern alles damit, ob ihre Organisationen bereit sind, die tägliche Arbeitsweise zu verändern.

Microsoft versucht, sich selbst als Laborratte für diesen Wandel zu nutzen. Innerhalb von Core AI weist Parikh auf ein Programm namens Thrive Inside hin, das verfolgt, wie Mitarbeiter ihre Zeit verbringen, und dann den „Betrieb führen“-Schlamm—Statusberichte, Koordination, manuelle Dokumentation—angeht, mit Copilot-ähnlichen Agenten, die automatisch zusammenfassen, Entwürfe erstellen und Arbeiten weiterleiten.

Das Ziel klingt einfach und brutal: Stunden zurückgewinnen und sie wieder dem Produkt zuweisen. Anstatt dass Ingenieure und PMs Zeit mit operativem Aufwand verschwenden, hat sich Thrive Inside zum Ziel gesetzt, mehr Zeit in der Woche auf das Design neuer Features, das Durchführen von Experimenten und das Sprechen mit Kunden zu verwenden – genau die Art von Arbeit, die KI ihnen bisher nicht abnehmen kann.

Diese Neuausrichtung verändert, wie Teams Software entwickeln. Anstatt einen einzigen Prototyp zu erstellen und Wochen auf Feedback zu warten, möchte Parikh, dass Teams gleichzeitig fünf KI-generierte Varianten erstellen, diese an interne oder externe Nutzer versenden und beobachten, was tatsächlich ankommt.

Schnelles, paralleles Prototyping funktioniert nur, wenn die Führungsebene ein unordentlicheres Pipeline akzeptiert. Das bedeutet mehr unausgereifte Ideen vor den Nutzern, mehr Experimente, die schnell eingestellt werden, und Produktfahrpläne, die sich nach den Daten richten anstatt nach dem, was ein Lenkungsausschuss im letzten Quartal entschieden hat.

Parikh argumentiert, dass hier die meisten Unternehmen ins Stocken geraten. Budgetgenehmigungen kommen, Anbieter stehen bereit, Talente sind verfügbar – aber das Unternehmen weigert sich, Arbeitsabläufe, Genehmigungsketten und Anreizstrukturen an KI-nativen Arbeitsweisen anzupassen.

Der eigentliche Wettbewerbsvorteil liegt also nicht im Zugang zu Modellen oder Partnerschaften wie OpenAI. Es hängt davon ab, ob ein Unternehmen sein Betriebssystem neu gestalten wird, um mit dem vertikal integrierten KI-Stack, den Microsoft in Core AI anbietet, übereinzustimmen.

Ihr Jobtitel wird obsolet.

Stellenbezeichnungen wie „Produktmanager“ und „Front-End-Entwickler“ wirken unsicher, wenn ein Prompt in Sekundenschnelle diese Grenzen überschreiten kann. Microsofts Core AI-Gruppe spricht aus einem Grund von „Machern“ statt von Entwicklern: Die Arbeit erstreckt sich nun über ein Kontinuum von der Idee bis zur Bereitstellung, und KI schließt die Lücken zwischen traditionellen Rollen. Leitplanken sind weiterhin wichtig, aber die Wände zwischen den Disziplinen bröckeln.

Ein Produktmanager, der früher ständig in Jira und PowerPoint gearbeitet hat, kann jetzt einen risikoarmen Bug beheben, indem er einen Stack-Trace in GitHub Copilot oder ein lokales Modell einfügt und um einen Patch bittet. Er kann Unit-Tests generieren, die Pipeline ausführen und einen Hotfix bereitstellen, ohne auf die Freigabe eines Ingenieurs warten zu müssen. Das ersetzt keine Spezialisten, aber es verändert radikal, wer auf Produktionscode zugreifen kann.

Auf der anderen Seite skizzieren Systemingenieure und SREs, die Figma nie geöffnet haben, jetzt UI-Flüsse mit einem Befehl. Sie beschreiben ein Dashboard für die GPU-Auslastung in Rechenzentren, und Copilot in Visual Studio Code generiert React-Komponenten, Tailwind CSS und sogar Beispiel-Telemetriediagramme. Ein Designer kann es später verfeinern, aber der erste interaktive Prototyp existiert in Stunden, nicht in Wochen.

Die Arbeit hört auf, wie ein Staffellauf zwischen Silos auszusehen, und beginnt, wie eine gemeinsame Leinwand zu wirken. Eine Person kann: - UX-Texte entwerfen - API-Stubs generieren - Logging einrichten - Ein Experiment hinter einem Feature-Flag bereitstellen

Alle mit derselben KI-gestützten Toolchain, während dennoch Experten für Skalierung, Sicherheit und Verfeinerung hinzugezogen werden.

Microsofts eigene Vision der „Agentenfabrik“ verankert dies im Stack: die gleiche Foundry-Plattform unterstützt den Bau, das Bereitstellen und die Beobachtung von Agenten über Cloud und Edge. Diese vereinheitlichte Pipeline fördert es, dass interdisziplinäre Teams gemeinsam arbeiten, Eingabeaufforderungen iterieren, den Scaffold-Code anpassen und in kurzen Zyklen in die Produktion gehen. Weniger Übergaben bedeuten weniger verlorene Anforderungen und schnellere Rückmeldungen.

Konvergenz eröffnet auch seltsamere, ambitioniertere Ideen. Ein Sicherheitsingenieur kann einen selbstheilenden Vorfall-Bot prototypisieren. Ein Finanzanalyst kann einen Prognose-Microservice erstellen. Wenn jeder bauen, bereitstellen und betreiben kann, sind Jobtitel weniger wichtig als die Frage, die am interessantesten ist – und wer einen Agenten zum Laufen bringen kann, um sie zu beantworten.

Sind Sie erstaunt oder frustriert von KI?

Illustration: Bist du von KI begeistert oder frustriert?
Illustration: Bist du von KI begeistert oder frustriert?

Jay Parikh sagt, dass die meisten Menschen, die er trifft, in zwei Gruppen bezüglich Künstlicher Intelligenz fallen. Gruppe 1 geht nach einer einzigen anständigen Copilot-Antwort mit den Worten weg: „Wow, das ist Magie.“ Gruppe 2 verlässt die gleiche Antwort murmelnd: „Warum hat es nicht auch X, Y und Z gemacht?“ und beginnt sofort zu experimentieren.

Gruppe 1 nutzt KI wie ein neuartiges Gadget. Sie fügen eine kurze E-Mail ein, bitten um eine Zusammenfassung, erstellen vielleicht einmal pro Woche eine Folie und hören auf, sobald sie die erste seltsame Antwort oder Halluzination erhalten. Ihre Lernkurve bleibt im Grunde flach, da ihre Erwartungen niedrig bleiben und ihre Nutzung oberflächlich bleibt.

Gruppe 2 betrachtet KI als Betriebssystem für ihren Arbeitsalltag. Sie verknüpfen Eingabeaufforderungen, integrieren Unternehmensdaten und drängen Agenten, mehrstufige Projekte zu bearbeiten: Verträge entwerfen, veralteten Code umschreiben, Kundenberichte aus rohen CSV-Dateien erstellen. Sie leben in den Fehlermeldungen, lernen aus Misserfolgen und erhöhen kontinuierlich die Schwierigkeit, während die Modelle von Monat zu Monat besser werden.

Parikhs eigene Teams innerhalb von Microsoft gehören eindeutig zu diesem zweiten Lager. Kern-AI-Engineers versammeln sich persönlich, um herauszufinden, wie man Copilot dazu bringt, Test-Harnesses zu schreiben, Telemetriedashboards zu generieren oder sich über umfangreiche Protokolle Gedanken zu machen. Sie probieren etwas aus, beobachten, wie es scheitert, tauschen Eingabeaufforderungen und Werkzeuge aus und versuchen es erneut – denn so bleibt man auf dem, was Parikh die exponentielle Trajektorie dieser Technologie nennt.

Selbstüberprüfung: Wie viele Stunden haben Sie in der vergangenen Woche tatsächlich mit einem KI-Tool verbracht? Wenn Ihre Antwort „einige Aufforderungen, vielleicht insgesamt 10 Minuten“ lautet, gehören Sie zu Gruppe 1. Wenn Sie die Nutzung in Stunden pro Tag messen können und mindestens 3 spezifische Arbeitsabläufe nennen können, die Sie rund um KI neu gestaltet haben, tendieren Sie zu Gruppe 2.

Stellen Sie sich ein paar schwierigere Fragen: - Führen Sie ein laufendes Dokument mit hilfreichen Eingaben und Tricks? - Haben Sie KI mit Ihrem Kalender, Code-Repo, CRM oder Datenlager verbunden? - Haben Sie bei der Arbeit etwas kaputtgemacht, weil Sie einem Modell zu sehr vertraut haben – und dann Ihren Prozess angepasst?

Gruppe 1 wird mit der Verbesserung von KI automatisch einen Anstieg der marginalen Produktivität erfahren. Gruppe 2 wird still und leise die Stellenbeschreibungen ersetzen. Wenn Parikh sagt, dass traditionelle Rollen verschwimmen, spricht er von Menschen, die KI nutzen, um gleichzeitig 3 Jobs auszuüben: Ingenieur, Analyst und Produkt-Denker, die zu einem einzigen „Builder“ verschmolzen sind.

Karrieren hängen jetzt davon ab, welche Kurve Sie wählen. Erstaunt sein ist optional. Frustriert sein – und schnell lernen – ist Pflicht.

Die Denkweise eines KI-Power-Users

Gruppe-2-Nutzer behandeln KI wie eine neue Programmiersprache, in der sie sich nicht mit Mittelmäßigkeit zufrieden geben. Sie führen parallele Tests mit GPT-4o, Claude, Gemini und Open-Source-Modellen durch, tauschen Eingabeaufforderungen wie Codeschnipsel aus und behalten mentale Benchmarks, welches System am besten mit längerem Kontextverständnis oder strukturierten Ausgaben umgeht. Sie vertrauen nicht auf das Marketing der Anbieter; sie vertrauen ihren eigenen Experimenten.

Gewohnheiten wirken fast obsessiv. Sie protokollieren Eingaben, verfolgen Misserfolge und iterieren, bis ein Workflow zuverlässig genug ist, um täglich betrieben zu werden. Wenn ein Modell halluziniert, zucken sie nicht einfach die Schultern und machen weiter – sie überarbeiten die Eingabe, fügen Werkzeuge hinzu oder ändern das Modell und dokumentieren dann, was das Problem gelöst hat.

Im Hintergrund lernen sie leise Kontext-Engineering. Sie denken in Token und Abruf, nicht in Stimmungen: was in die Systemaufforderung eingeht, was in der Benutzereingabe bleibt, was in einen Vektorenspeicher übergeht. Sie entwerfen Schemas, gliedern Dokumente und testen, wie unterschiedliche Kontextfenster und Temperaturen Latenz und Kosten beeinflussen.

Sie beginnen auch, die Sprache der Evaluierungsmetriken zu sprechen. Anstelle von „das fühlt sich besser an“ verfolgen sie: - Erfolgsraten bei Aufgaben über 20–50 Testfälle - Latenz und Kosten pro Aufgabe in Dollar - Fehlerarten: Halluzinationen, Formatierung, Sicherheit, Fehlgebrauch von Werkzeugen Sie erstellen kleine Evaluierungsrahmen in Python oder nutzen fertige Evaluierungstools, um zu vermeiden, dass agenten, die auf Bauchgefühlen basieren, in die Produktion gehen.

Von dort aus wandern viele in die Feinabstimmung und verstärkendes Lernen. Sie führen kleine, domänenspezifische Feinabstimmungen auf Support-Tickets oder Codebasen durch und vergleichen diese mit reinem Prompting. Sie experimentieren mit verstärkendem Lernen aus menschlichem Feedback auf internen Agenten und belohnen Verhaltensweisen wie Disziplin bei der Nutzung von Werkzeugen oder die Einhaltung der Unternehmensrichtlinien.

Frustration ist ihr Standardzustand – und ihr bestes Signal. Wenn du immer wieder an die Grenzen dessen stößt, was Copilot oder ChatGPT leisten können, bedeutet das, dass deine Ambitionen das „Autocomplete für die Arbeit“ überschritten haben und in den Bereich des Systemdesigns eingetreten sind. An diese Grenzen zu stoßen, zwingt dich dazu, zu lernen, wie Modelle tatsächlich funktionieren.

Der Wechsel von Gruppe 1 zu Gruppe 2 beginnt mit der Absicht. Blockieren Sie 30–60 Minuten am Tag, um: - A/B-Tests über Modelle hinweg durchzuführen - Pro Woche einen wiederverwendbaren Prompt oder Agenten zu erstellen - Misserfolge festzuhalten und zu notieren, was Sie geändert haben Ressourcen wie Jay Parikh - Microsoft Build zeigen, in welche Richtung sich diese Denkweise im großen Maßstab bewegt; Ihre Aufgabe ist es, diesen Experimentierschleifen im Kleinen nachzubilden.

Über Copilot hinaus: Bald werden Sie Agentenarmeen verwalten.

Copilot war nur die Einführungsstufe. Jays Parikh's Core-AI-Gruppe spielt bereits ein anderes Spiel: Sie orchestriert Schwärme von spezialisierten Agenten, die mehr miteinander kommunizieren als mit dir. Statt ein Modell zu bitten, „Code zu schreiben“, schließen fortgeschrittene Teams Planer, Programmierer, Tester und Prüfer zu einem Miniatur-Softwareunternehmen zusammen, das auf Silizium läuft.

Innerhalb von Microsoft vermeiden einige der fortschrittlichsten Gruppen mittlerweile, auch nur eine Zeile Quellcode zu berühren. Ingenieure beschreiben Arbeitsabläufe, in denen sie hochgradige Vorgaben, Einschränkungen und Schnittstellen definieren und dann diesen Plan an einen Stapel von Agenten weitergeben, die auf der internen Foundry-Plattform von Microsoft, der „Agentenfabrik“, laufen. Die menschliche Aufmerksamkeit verlagert sich auf ein höheres Niveau, hin zur Gestaltung von Verhalten und Leitplanken, statt das Syntax-Mikromanagement zu betreiben.

Ein entscheidendes Element dieses Stacks ist der Verifizierungsagent. Anstatt KI-generierten Code in eine menschliche Überprüfungswarteschlange zu werfen, führen Verifizierungsagenten automatisch Tests, statische Analysen und Richtlinienprüfungen durch und geben dann strukturierte Rückmeldungen an die Codierungsagenten zurück. Der Prozess sieht so aus: generieren → verifizieren → regenerieren, und durchläuft diesen Zyklus mehrere Male, bevor ein Mensch jemals eine Änderung zu Gesicht bekommt.

Dieses Feedback beschränkt sich nicht nur auf „Tests fehlgeschlagen“. Prüfagenten können fehlende Randfälle, Leistungsrückgänge, Verstöße gegen Sicherheitsrichtlinien oder Vertragsbrüche bei APIs aufzeigen. Codierungsagenten nutzen dieses maschinelle Feedback dann als Kontext, um ihre eigenen Eingabeaufforderungen und Strategien autonom zu aktualisieren und Probleme zu beheben. Menschen kommen dann ins Spiel, wenn der Kreislauf ins Stocken gerät, und nicht bei jedem trivialen Bug.

Parikhs Teams betreiben effektiv Softwarefabriken, in denen Agenten die Montagelinie besitzen. Ein Agent könnte die Anforderungsanpassung übernehmen, ein anderer die Bereitstellung von Dienstleistungen, ein dritter die Verbindung zur Überwachung herstellen, während andere sich auf Dokumentation und Bereitstellungsmanifeste spezialisieren. Jeder Agent stellt seinen Kollegen Werkzeuge und APIs zur Verfügung und verwandelt ein Repository in ein lebendiges Multi-Agentensystem anstatt in einen statischen Haufen von Dateien.

Ihre Rolle in dieser Welt sieht viel weniger nach „Entwickler“ und viel mehr nach „Fabrikleiter“ aus. Sie entscheiden, welche Agenten aktiviert werden, welche Fähigkeiten ihnen gewährt werden, wie stark ihr Zugriff auf Daten eingeschränkt wird und welche Verifizierungskontrollen durchgesetzt werden. Die echte Einflussnahme verlagert sich auf die Menschen, die diese Armeen von Agenten entwerfen, planen und steuern können – denn die Tastaturarbeit wird schnell zum unwichtigsten Teil.

Der Unsichtbare Krieg: Sicherheit in einer handlungsfähigen Welt

Illustration: Der Unsichtbare Krieg: Sicherheit in einer agentischen Welt
Illustration: Der Unsichtbare Krieg: Sicherheit in einer agentischen Welt

Nicht-deterministische KI-Agenten benehmen sich nicht nur schlecht; sie schaffen eine völlig neue Angriffsfläche. Traditionelle Anwendungen folgen festgelegten Code-Pfaden, während Agenten planen, Werkzeuge erkunden und improvisieren, um in Schwierigkeiten zu geraten, selbst wenn niemand das schlechte Verhalten ausdrücklich programmiert hat. Diese Unvorhersehbarkeit durchbricht Jahrzehnte von Sicherheitsannahmen, die auf wiederholbaren, prüfbaren Arbeitsabläufen basieren.

Konventionelle Unternehmenssicherheit stützt sich auf statische Checklisten: Patch-Level, rollenbasierte Zugriffskontrollen, Compliance-Bestätigungen. Agentische Systeme überwinden dieses Modell, da ein einzelner Agent in Echtzeit APIs verketten, Wissensdatenbanken durchforsten und Aktionen über SaaS-, On-Premise- und Edge-Umgebungen synthetisieren kann. Es geht nicht mehr nur darum, Endpunkte zu sichern; es geht darum, emergentes Verhalten zu sichern.

Die Sicherheit für Agenten ähnelt eher einer kontinuierlichen Luftverkehrskontrolle als einem einmaligen Pen-Test. Unternehmen benötigen: - Fein granulierte, widerrufbare Berechtigungen für Werkzeuge und Daten - Richtlinien-Engines, die jeden Schritt im Plan eines Agenten bewerten - Laufzeit-"Sicherheitsunterbrecher", die verdächtige Handlungsketten stoppen All dies muss observierbar, protokolliert und für Prüfer erklärbar sein, die fragen werden, warum eine KI um 3:17 Uhr das getan hat, was sie getan hat.

Parikh betont immer wieder einen Punkt: Sicherheit und Vertrauen können nicht später hinzugefügt werden. Wenn ein Agent autonom eine Verbindung zu einem CRM, ERP und einem Code-Repository herstellen kann, wird jede Fehlkonfiguration zu einem Problem mit einer großen Reichweite, nicht zu einem isolierten Fehler. Sicherheitsvorkehrungen, Governance und Red-Teaming müssen in jeder Ebene des KI-Stacks verankert sein, von der Modellauswahl und der Strukturierung von Eingaben bis hin zu Einsatz und Überwachung.

Microsofts Foundry-Plattform—die sogenannte „Agentenfabrik“—setzt diese Prinzipien für Unternehmen um. Foundry zielt darauf ab, eine policy-bewusste Orchestrierung durchzusetzen, den Zugriff auf Tools und Daten standardmäßig zu verweigern und eine tiefe Observierbarkeit über Tausende von Agenten zu ermöglichen, die in Azure, vor Ort oder am Edge betrieben werden. Das Angebot ist einfach, aber aggressiv: Wenn Sie Agentenarmeen entfesseln wollen, ist es die Aufgabe von Foundry, zu verhindern, dass ein einzelner böswilliger oder kompromittierter Agent zu einem internen SolarWinds wird.

Die Revolution antreiben: Rechenzentren & Energie

Fairwater, Microsofts neuester KI-Datenzentrum-Campus, ist ein stilles Eingeständnis, dass der KI-Boom mittlerweile ebenso ein Infrastrukturproblem ist wie ein Modellproblem. Das Training und der Betrieb von Copilot, Modellen der Klasse GPT-4 und ganzen Flotten von Agenten hängen nicht mehr nur von cleveren Architekturen ab; sie hängen von Beton, Stahl und Megawatt ab. Microsoft investiert jährlich zig Milliarden Dollar in neue Datenzentren, maßgeschneiderte Netzwerke und Flüssigkeitskühlung, nur um mit der Nachfrage Schritt zu halten.

Der Begriff „dunkle GPUs“ – hochleistungsfähige Beschleuniger, die angeblich untätig bleiben – steht im Widerspruch zu dem, was Jay Parikh vor Ort beschreibt. Es gibt Kapazitäten, aber sie sind über Regionen, SKU und Netzwerk-Topologien fragmentiert und oft Monate im Voraus für hyperskalige Trainingsläufe reserviert. Die eigentlichen Engpässe liegen in der Stromversorgung, den Kühlmöglichkeiten und der Bereitstellung von Hochbandbreiten- und niederlatenten Verbindungen zu den richtigen Racks, nicht in Paletten ungenutzter H100s, die Staub ansetzen.

Energie wird nun zur harten Obergrenze. KI-Rechenzentren verbrauchen bereits jährlich zehntausende Terawattstunden, und Branchenprognosen von Versorgungsunternehmen und Regulierungsbehörden deuten auf ein zweistelliges prozentuales Wachstum der Last in Rechenzentren im nächsten Jahrzehnt hin. Netzbetreiber in den USA und Europa warnen, dass große KI-Campus jeweils 1–5 GW benötigen können, was der Größe einer mittelgroßen Stadt entspricht und langfristige Upgrades in der Übertragung und Erzeugung erfordert.

Microsofts Antwort besteht nicht nur darin, „mehr Rechenzentren zu bauen“, sondern „mehr Intelligenz an den Rand zu verlagern“. Das Team von Parikh entwirft ein Programmiermodell, in dem agentische Anwendungen über vier Ebenen laufen können: Cloud, regionale Rechenzentren, lokale Infrastruktur und Edge-Geräte. Diese Verteilung reduziert die Hin- und Rückfahrten zur Cloud, minimiert die Bandbreite und verlagert einige Berechnungen von den am stärksten leistungsbeschränkten Einrichtungen.

Edge-first-Agenten schaffen auch eine andere Art von Effizienzgeschichte. Wenn ein Agent auf dem Fabrikboden lokal auf einem GPU-ausgestatteten Gateway reasoning kann, sieht die Cloud nur einen zusammengefassten Zustand und nicht die rohen Sensordaten. Die umfassendere „Agentenfabrik“-Vision von Microsoft, die in Von der Softwarefabrik zur Agentenfabrik: Wie Microsoft die Entwicklung neu überdenkt erläutert wird, basiert auf diesem Kontinuum: intensives Training in Hyperscale-Rechenzentren, Orchestrierung in der Cloud und schnelle, energieeffiziente Inferenz am Edge.

Ihr Aktionsplan für das KI-Zeitalter

Hören Sie auf, ChatGPT oder Copilot wie einen Zaubertrick zu behandeln. Behandeln Sie sie wie unterdurchschnittliche Praktikanten, die Sie entschlossen in vollwertige Mitarbeiter verwandeln möchten. Wenn Sie immer noch "staunend" sind, dass ein LLM eine E-Mail schreiben kann, setzen Sie die Messlatte höher: Fordern Sie funktionierenden Code, mehrstufige Analysen und umfassende Projektskizzen, und drängen Sie weiter, wenn es scheitert.

Beginne jede Woche, indem du eine schmerzhafte Aufgabe auswählst und fragst: „Was würde Gruppe 2 hier mit KI tun?“ Durchlaufe das Modell in drei oder vier Iterationen, wechsle die Modelle (GPT-4, Claude, Gemini) und integriere echte Tools – deine IDE, deinen Kalender, CRM oder Datenbank. Messe deinen Erfolg anhand der Ergebnisse: gesparte Stunden, behobene Fehler, durchgeführte Experimente.

Interdisziplinäres Lernen wird jetzt zu einer Überlebensfähigkeit. Wenn Sie Ingenieur sind, nutzen Sie GitHub Copilot oder GPT-4, um einen groben UX-Prototypen in Figma zu erstellen und das Launch-Briefing zu schreiben. Wenn Sie PM sind, lassen Sie sich von KI bei der Fehlersuche eines fehlerhaften Tests unterstützen, generieren Sie einen Patch und öffnen Sie einen Pull Request. Designer können Modelle verwenden, um SQL-Abfragen, grundlegende Telemetriedashboards oder sogar Bedrohungsmodelle zu erstellen.

Denke in Systemen, nicht in Aufforderungen. Nimm ein komplexes Projekt – sagen wir, die Einführung eines neuen internen Werkzeugs – und zerlege es in Agenten: - Forschungsagent: Markt, Wettbewerber, Nutzerinterviews - Architektenagent: Anforderungen, Diagramme, Abwägungen - Ausführungsagent: Code, Tests, Bereitstellungsskripte - Red-Team-Agent: Sicherheit, Missbrauch, Fehlermodi

Dann schreiben Sie auf, wie sie die Arbeit übergeben, sich gegenseitig überprüfen und an Sie eskalieren.

Innerhalb Ihres Unternehmens sollten Sie die Person sein, die über Kultur spricht, nicht nur über Werkzeuge. Führen Sie kurze „KI-Übungen“ in Teammeetings durch, teilen Sie konkrete Erfolge und Misserfolge in einem wöchentlichen Beitrag und drängen Sie Führungskräfte dazu, Experimente zu belohnen – selbst die, die fehlschlagen. Wenn Microsofts zentrale KI-Gruppe persönliche Zusammenarbeit benötigt, um Schritt zu halten, benötigt Ihr Team wahrscheinlich mindestens ein lebendiges, atmendes KI-Playbook.

Häufig gestellte Fragen

Was ist Microsofts neues Core AI-Team?

Es ist eine neu zusammengestellte Abteilung, die von EVP Jay Parikh geleitet wird und Entwickler-Tools, Kerninfrastruktur und KI-Plattformen integriert, um einen einheitlichen „Stack“ zu schaffen, der das Bauen, Bereitstellen und Sichern von KI-Agenten und Anwendungen ermöglicht.

Warum kehrt Jay Parikhs Team wieder vollzeit ins Büro zurück?

Parikh ist der Meinung, dass das schnelle, exponentielle Tempo der KI-Entwicklung persönliche Zusammenarbeit, Coaching und Lernen erfordert. Er argumentiert, dass Teams gemeinsam schneller lernen und sich anpassen, was entscheidend ist, um an der Spitze der KI-Innovation zu bleiben.

Wie verändert KI die Rolle eines Softwareentwicklers?

KI verwischt die Grenzen zwischen Rollen wie Ingenieurwesen, Produktentwicklung und Design. Sie ermächtigt Einzelpersonen, Aufgaben außerhalb ihres traditionellen Bereichs zu übernehmen und verlagert den Fokus vom Schreiben von Code auf das Orchestrieren von KI-Agenten, das Gestalten von Kontexten und das Validieren von Ergebnissen.

Die beiden Arten von KI-Nutzern, die Jay Parikh beschreibt, sind: 1. Die, die KI aktiv nutzen, um ihre Arbeit zu verbessern und Entscheidungen zu treffen, und 2. Die, die KI lediglich als Werkzeug betrachten, ohne ihre vollen Möglichkeiten auszuschöpfen.

Gruppe 1 ist leicht von KI beeindruckt und nutzt sie selten, mit niedrigen Erwartungen. Gruppe 2 verwendet KI ständig für komplexe Aufgaben, ist oft frustriert über ihre Einschränkungen und stößt aktiv an ihre Grenzen, wodurch sie die exponentielle Lernkurve nutzt.

Frequently Asked Questions

Sind Sie erstaunt oder frustriert von KI?
See article for details.
Was ist Microsofts neues Core AI-Team?
Es ist eine neu zusammengestellte Abteilung, die von EVP Jay Parikh geleitet wird und Entwickler-Tools, Kerninfrastruktur und KI-Plattformen integriert, um einen einheitlichen „Stack“ zu schaffen, der das Bauen, Bereitstellen und Sichern von KI-Agenten und Anwendungen ermöglicht.
Warum kehrt Jay Parikhs Team wieder vollzeit ins Büro zurück?
Parikh ist der Meinung, dass das schnelle, exponentielle Tempo der KI-Entwicklung persönliche Zusammenarbeit, Coaching und Lernen erfordert. Er argumentiert, dass Teams gemeinsam schneller lernen und sich anpassen, was entscheidend ist, um an der Spitze der KI-Innovation zu bleiben.
Wie verändert KI die Rolle eines Softwareentwicklers?
KI verwischt die Grenzen zwischen Rollen wie Ingenieurwesen, Produktentwicklung und Design. Sie ermächtigt Einzelpersonen, Aufgaben außerhalb ihres traditionellen Bereichs zu übernehmen und verlagert den Fokus vom Schreiben von Code auf das Orchestrieren von KI-Agenten, das Gestalten von Kontexten und das Validieren von Ergebnissen.
🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts