TL;DR / Key Takeaways
Die 36-Sekunden-Störung
Sechsunddreißig Sekunden sind nicht nur ein Flex; sie sind ein direkter Angriff auf die Zeitleiste, wie Software entwickelt wird. In Moritz' viralem Demo gibt ein Nutzer „Essenslieferungs-App“ ein, schaltet design max um, tippt auf Gemini 3, drückt auf Generieren, und Compos.ai spuckt vollständige Mobile-App-Bildschirme aus, bevor ein YouTube-Vorab-Spieler mit dem Puffern fertig ist.
Traditionelles App-Design verläuft in einem völlig anderen Tempo. Ein typischer Produktzyklus verbringt 1–2 Wochen mit Stakeholder-Workshops, Benutzerreisen und Wireframes, gefolgt von weiteren 2–4 Wochen für hochauflösende Mockups in Figma oder Sketch, wobei die Überprüfungsrunden das Ganze für ambitionierte Projekte auf Monate ausdehnen.
Designteams bestehen in der Regel aus: - 1–3 Produktdesignern - 1 Produktmanager - 1–2 Ingenieuren für Machbarkeitsprüfungen
Alle rechnen Stunden ab, während grundlegende Entwürfe vom Whiteboard zum Prototyp übergehen.
Moritz’ 36-sekündiger Workflow komprimiert die gesamte vorgelagerte Phase in ein einziges Eingabefeld. Keine Komponentenbibliotheken zu kuratieren, kein Herumfummeln mit Auto-Layouts, keine Farbtokens zu definieren – Gemini 3 leitet Muster aus Millionen vorheriger Schnittstellen ab und erzeugt etwas, das verdächtig nah an einer ersten Kundenpräsentation aussieht.
Für Designer liegt die Bauchreaktion oft irgendwo zwischen Staunen und existenzieller Angst. Wenn ein Prompt in weniger als einer Minute 10–20 einigermaßen kohärente Bildschirme erzeugen kann, was passiert dann mit den Tagen, die sie mit der Verfeinerung von Navigationshierarchien, leeren Zuständen und Onboarding-Flows verbringen?
Entwickler spüren den Wandel ebenfalls. Benutzeroberflächen, die einst umfangreiche Front-End-Zeitpläne rechtfertigten, erscheinen jetzt sofort und drängen sie zur Integration, Leistung und Berücksichtigung von Randfällen statt zur perfekten Pixelplatzierung. Die Gründer hingegen erleben, wie ein Problem mit ihrem Pitchdeck verschwindet: Idee heute, bis zur Mittagszeit einsatzbereite Visuals.
Das ist kein Zaubertrick, der nachträglich zusammengenäht wurde. Werkzeuge wie Compos.ai, Cursor und CopyCoder vernetzen bereits Modelle, sodass ein System entwirft, ein anderes Code schreibt und ein drittes den Text verfeinert – und verwandeln „eine App bauen“ in einen Multi-Agenten-Workflow, der mit MaschinenGeschwindigkeit läuft.
Was Moritz zeigt, ist ein sichtbarer Wendepunkt: Ideenfindung und erste Entwürfe gehören nicht mehr zur Kalenderzeit. Sie leben jetzt in der GPU-Zeit, und dieser Wandel wird nicht lange auf Mockups beschränkt bleiben.
Im Inneren der 'Magic Box': Compos.ai
Compos.ai steht im Zentrum von Moritz' 36-Sekunden-Stunt. Es ist ein browserbasiertes AI-Design-Tool, das einen einzigen Satz in ein vollständiges Set von Bildschirmen für mobile Apps verwandelt, ohne dass Figma-Kenntnisse oder Wissen über Designsysteme erforderlich sind. Moritz berührt keine Leinwand; er berührt nur ein Eingabefeld.
Der Workflow wirkt fast schon beleidigend einfach. Sie öffnen Compos.ai, geben etwas ein wie „Essensliefer-App“ in das Eingabefeld, schalten eine Einstellung namens Design Max ein und drücken auf Generieren. Innerhalb von Sekunden füllt sich die Benutzeroberfläche mit Multi-Screen-Layouts, die aussehen, als könnten Sie sie direkt an einen Front-End-Entwickler übergeben.
Design Max ist der entscheidende Schalter. Moritz ruft aus, dass es „Gemini 3“ verwendet, was impliziert, dass Compos.ai diesen Modus zu Googles leistungsstärkstem Gemini 3-Modell leitet, anstelle einer günstigeren Variante. Hochwertigere Modelle bieten in der Regel bessere räumliche Logik, visuelle Konsistenz und Textgestaltung, was zu klareren Layouts, kohärenteren Navigationsflüssen und markenkonformem Mikrotexte führt.
Im Kern tauscht Design Max wahrscheinlich Kosten und Latenz gegen Genauigkeit ein. Ein leistungsstarkes Modell kann Designmuster – Tab-Leisten, Filter, Warenkorbübersichten – aus einem vagen Prompt wie „moderne Essensliefer-App für vielbeschäftigte Eltern“ ableiten. Es kann entscheiden, dass Sie wahrscheinlich ein Onboarding, einen Home-Feed, Detailseiten für Restaurants, einen Checkout-Prozess und einen Bestellverfolger benötigen, und dann all dies in einem Durchgang generieren.
Text-to-UI ist hier der echte Paradigmenwechsel. Anstatt Rechtecke zu ziehen und Hex-Codes anzupassen, beschreiben die Nutzer ihre Absichten in Sprache: „dunkles Thema, minimalistisch, Fokus auf Fotos, Werbebanner hinzufügen.“ Die KI übersetzt diese Beschreibung in Layout-, Hierarchie-, Farb- und Typografieentscheidungen, für die früher das Auge eines Designers und die Einschränkungen eines Designsystems erforderlich waren.
Dieser Wandel erweitert radikal, wer an der Produktgestaltung teilnehmen kann. Ein alleiniger Gründer, Restaurantbesitzer oder Student kann vor dem Mittagessen ein komplettes App-Konzept skizzieren und dann durch das Bearbeiten von Sätzen anstatt von Wireframes iterieren. Die Demokratisierung bedeutet hier nicht, Designer zu ersetzen; es geht darum, mehr Menschen in die frühesten und chaotischsten Phasen der Ideenfindung einzubeziehen, wo Geschwindigkeit und Menge wichtiger sind als pixelgenaue Perfektion.
Sobald Text die primäre Gestaltungsebene wird, hören Werkzeuge wie Compos.ai auf, Neuheiten zu sein, und beginnen, wie neue Standards auszusehen.
Der Motor hinter der Geschwindigkeit: Gemini 3
Die Gemini-Familie von Google steht im Mittelpunkt dieses 36-sekündigen Tricks. Gemini ist nicht nur ein Textmodell; es ist von Grund auf multimodal und darauf trainiert, Text, Bilder und sogar höherwertige Konzepte zu Layout, Fluss und Interaktion zu verstehen und zu erzeugen. Das ist wichtig, weil App-Design weniger um hübsche Bildschirme geht und mehr darum, wie diese Bildschirme zueinander in Beziehung stehen.
Gemini 3, auf dem Moritz’ Compos.ai basiert, treibt wahrscheinlich das Thema visuelles Denken weiter voran. Anstatt ein Bild einfach nur als „Startbildschirm“ zu kennzeichnen, kann es Hierarchien ableiten: welches Element der primäre Handlungsaufruf ist, welche Komponenten über die Screens hinweg wiederholt werden, wie die Navigation bestehen bleibt und wo das Auge eines Nutzers zuerst hinschaut. Das lässt „Design-Max“ weniger wie einen Stilumschalter und mehr wie ein UX-Gehirn erscheinen.
Frühere generative Modelle, einschließlich der ersten Welle von Stable Diffusion oder DALL·E, konnten ein einzelnes dribbble‑bereites Mockup erstellen. Sie hatten Schwierigkeiten mit: - Konsistenter Navigation über 5–10 Bildschirme - Logischen Zustandsänderungen (eingeloggt vs. ausgeloggt) - Randfällen wie leeren Zuständen, Fehlern und Ladeflüssen
Du hast ein Poster, kein Produkt.
Gemini-Klassenmodelle zielen darauf ab, Multiscreen-Erlebnisse zu schaffen, die tatsächlich zusammenhängen. Wenn Sie nach einer „Essensliefer-App“ fragen, erhalten Sie nicht nur ein Hauptbild; Sie bekommen eine Liste von Restaurants, Detailinformationen zu Menüs, einen Warenkorb, den Checkout und die Auftragsverfolgung, die sich gegenseitig aufeinander beziehen. Diese Kohärenz ist der Unterschied zwischen Konzeptkunst und etwas, das ein Entwickler an einem Tag umsetzen kann.
Nichts davon geschieht ohne brutal große Mengen an Trainingsdaten. Um zu verstehen, was eine „gute“ App ausmacht, benötigt Gemini Zugang zu Tausenden oder Millionen von mobilen Abläufen, Designsysthemen wie Material Design und Human Interface Guidelines sowie zu realen UI-Mustern von Figma, Sketch und Produktions-Apps. Es muss verinnerlichen, dass eine untere Navigationsleiste sich nicht willkürlich verschieben sollte, dass Kontrastverhältnisse die Lesbarkeit beeinflussen und dass Abstände und Typografie Hierarchien signalisieren.
Wenn Sie einen Eindruck von dem breiteren Ökosystem bekommen möchten, das auf diesem Weg ist, zeigt Top 6 AI Mobile App Design Tools & Trends für 2025, wie schnell diese Gemini-Stil-Fähigkeiten zum Mindeststandard werden.
Von vager Idee zum tragfähigen Prototyp
Produktteams verbringen in der Regel Tage in Workshops, nur um von einer vagen Idee zu einem groben Entwurf zu gelangen. Mit Compos.ai, das mit Gemini 3 verbunden ist, verwandelt sich das unklare „Wir sollten eine Essensliefer-App entwickeln“ in weniger als einer Minute in einen klickbaren Prototyp, der direkt in Figma oder einen Usability-Test integriert werden kann.
Brainstorming verlagert sich von Whiteboards und Haftnotizen zu schnellem Visualisieren. Du kannst eingeben „Gewohnheitstracker für ADHS-Nutzer, beruhigend, niedrige kognitive Belastung, Dunkelmodus zuerst“ und siehst, wie ganze Abläufe erscheinen: Onboarding, Streak-Ansichten, Benachrichtigungseinstellungen, Bezahlschranken. Jede Iteration wird zu einer Anpassung des Eingangs, nicht zu einem neuen Design-Sprint.
Wireframing hört auch auf, ein spezialisiertes Engpass zu sein. Nicht-Designer können mehrere Layout-Richtungen und Interaktionsmuster erstellen, ohne ein Raster oder eine Komponentenbibliothek zu berühren. Designer bewegen sich dann auf eine höhere Ebene, indem sie die Markensysteme kuratieren, korrigieren und durchsetzen, anstatt jeden Button von Grund auf neu zu zeichnen.
Für A/B-Tests ist diese Geschwindigkeit brutal, aber auf die beste Art. Anstatt 1–2 Varianten pro Woche kann ein Team innerhalb eines Tages 10–20 Bildschirmsets erstellen, schnelle Nutzertests mit 5–10 Personen pro Variante durchführen und schwache Konzepte aussortieren, bevor sie zur Technik gelangen. Das komprimiert den klassischen „doppelten Diamanten“ zu etwas, das näher an einem schnellen Feedbackloop liegt.
Prompts werden zur neuen Design-Spezifikation, und Qualität zählt. Effektive Prompts sind meist: - Zielorientiert („Steigerung der Conversion-Rate beim Checkout um 10 % auf mobilen Geräten“) - Benutzer-spezifisch („für erstmalige Anleger, im Alter von 25–35 Jahren, besorgt über Risiken“) - Einschränkend („nur iOS, untere Navigation, keine Karussells, WCAG AA-Kontrast“)
Schwache Aufforderungen klingen wie: „coole App für alle“, „mach es modern und clean“ oder „soziales Netzwerk für Haustiere“. Diese zwingen Gemini 3, die Geschäftsziele, Zielbenutzer und Plattformregeln zu erraten, was normalerweise zu generischen, Dribbble-ähnlichen Layouts führt, die unter den Anforderungen der realen Welt zusammenbrechen.
Ein starker Hinweis könnte lauten: „Abonnement-Meditations-App für ausgebrannte Softwareingenieure, Android, Fokus auf 5-Minuten-Sitzungen, keine Anmeldeschranke, Priorität auf Sitzungsentdeckung und Serien, verwende gedämpfte Blautöne, Material Design.“ Das gibt der KI ein Produktbriefing, kein Stimmungs-Check, und der daraus resultierende Prototyp ist etwas, das ein Produktmanager tatsächlich ausliefern könnte.
Jenseits der Geschwindigkeit: Ist das Ergebnis tatsächlich gut?
Geschwindigkeit ist leicht zu messen. Qualität hingegen nicht. Wenn Compos.ai und Gemini 3 in 36 Sekunden ein vollständiges Set von App-Bildschirmen ausgeben, ist die naheliegende Frage, ob diese Pixel neben etwas stehen können, das ein menschliches Produktteam liefern würde.
Auf der positiven Seite übertreffen KI-generierte Benutzeroberflächen alles Menschliche in Bezug auf die reine Durchsatzleistung. Ein einzelner Prompt kann 10–20 kohärente Bildschirme erzeugen, mit konsistenter Typografie, Farbtokens und Abstandsregeln, für die ein Designer Stunden in Figma benötigen würde. Bei grundlegenden Abläufen – Login, Onboarding, Artikellisten, Checkout – sehen die Layouts oft nicht von dem unterscheidbar aus, was ein Junior-Designer am ersten Tag entwerfen könnte.
Diese Geschwindigkeit beseitigt auch das klassische Problem der „leeren Seite“. Anstatt auf einer leeren Leinwand zu starren, erhalten Produktteams einen konkreten Ausgangspunkt: Navigationsmuster, Kartenlayouts, Button-Hierarchien und Platzhaltertexte. Für interne Tools, MVPs und CRUD-lastige Anwendungen ist dieses Designgerüst in der Regel „gut genug“, um direkt mit dem Prototyping und der Usability-Tests zu beginnen.
KI sorgt auch für gnadenlose Konsistenz. Da Modelle auf Mustererkennung basieren, vergessen sie selten, Komponenten auszurichten, Abstandsmaßstäbe beizubehalten oder UI-Primitiven wiederzuverwenden. Stilabweichungen zwischen Bildschirmen – eine der häufigsten Sünden in frühen Phasen von Produkten – verschwinden praktisch, wenn ein einzelnes Modell alles vom Splashscreen bis zu den Einstellungen generiert.
Der Haken: Mustererkennung hat zwei Seiten. Diese Designs wirken oft generisch, wie ein Remix der Top 50 Dribbble-Shots aus 2022. Man sieht immer wieder dieselben abgerundeten Karten, Frosted-Glass-Header, Pillen-Buttons und untere Navigationsleisten, unabhängig davon, ob man eine App für psychische Gesundheit oder ein industrielles IoT-Dashboard erstellt.
Wo KI am stärksten ins Straucheln gerät, ist benutzerzentrierte Empathie. Weltklasse-UX-Arbeit beginnt mit tiefgehender Forschung: kontextuelle Befragungen, Tagebuchstudien, Segmentierung und Verhaltensdaten, die subtile Ängste und Motivationen offenbaren. Ein Sprachmodell, das auf öffentlichen Bildschirmen trainiert wurde, kann nicht das Gefühl der Angst beim Klicken auf „Absenden“, die Erleichterung in einem Bestätigungszustand oder das Bedürfnis, die Nutzer vor einer unumkehrbaren Handlung zu bremsen, intuitiv erfassen.
Diese Lücke zeigt sich in Mikrotexten, Randfällen und emotionalem Tempo. Von Menschen geführte Produkte modulieren bewusst den Reibungsgrad – sie fügen zusätzliche Schritte bei Zahlungen, Privatsphäre oder sicherheitskritischen Aktionen hinzu. Aktuelle, von KI generierte Strömungen neigen dazu, den kürzesten Weg zu optimieren, nicht den menschlichsten Weg, und genau hier sind erfahrene Designer den Bots weiterhin weit überlegen.
Der neue Jobtitel: KI-Design-Direktor
KI-generierte Wireframes landen in 36 Sekunden in deinem Figma und lösen eine offensichtliche Angst aus: Wenn Gemini 3 und Compos.ai auf Befehl jeden Bildschirm einer Lebensmittel-Liefer-App erstellen können, was passiert dann mit UI/UX-Designern? Die kurze Antwort ist, dass sie aufhören, Pixelarbeit zu leisten, und anfangen, AI Design-Direktoren zu werden.
Anstelle von manuellem Drücken jedes Knopfs und jeder Karte orchestrieren Designer nun Systeme. Sie wählen aus, welchen Modellen sie vertrauen, wie sie diese verknüpfen und wann sie diese übersteuern. Der Job verändert sich von der Erstellung von Rechtecken hin zur Steuerung von Verhalten, Ton und Standards über Dutzende von KI-gesteuerten Abläufen hinweg.
Prompt-Engineering hört auf, ein Meme zu sein, und wird zu einem zentralen Design-Handwerk. Ein starker KI-Designleiter weiß, wie man Marke, Barrierefreiheit, Bewegungssprache und Plattformkonventionen in Prompts wie „iOS-first, WCAG AA, mit Daumen erreichbare Navigation, Fokus auf Reorder-Flow für Power-User“ kodiert. Dieses Prompt wird zum neuen Designspezifikationsdokument.
Neue grundlegende Fähigkeiten entstehen schnell: - Prompt-Engineering für Design über Gemini, Midjourney und proprietäre Tools - KI-Tool-Kuration und Bewertung, von Compos.ai bis Stitch - Design mit KI - Systematische Kritik und Verfeinerung von KI-Ausgaben - Tiefgehende Recherche zu Grenzfällen, Vertrauen und Barrierefreiheit, die von Modellen häufig übersehen werden
KI kümmert sich um das Was: Onboarding-Bildschirme, Checkout-Flows, leere Zustände, Dunkelmodus-Varianten. Sie kann in weniger als einer Minute 40 Layout-Optionen generieren, jede markenkonform und jede pixelgenau genug für einen Usability-Test. Menschen konzentrieren sich auf das Warum: welche Nutzerreisen wichtig sind, welche Kompromisse den Nutzern schaden, welche Flows mit dem unternehmerischen Risiko übereinstimmen.
Komplexe UX-Probleme verschwinden nicht. Das Design von Einwilligungen für Gesundheitsdaten, multimodale Schnittstellen für neurodivergente Nutzer, plattformübergreifende Ökosysteme, die Uhr, Auto und Fernseher umfassen – diese Probleme bleiben von Mustermatching-Modellen ungelöst. KI kann Optionen skizzieren, aber sie kann nicht die Politik der Stakeholder aushandeln oder widersprüchliche Nutzerbedürfnisse synthetisieren.
Designer, die daran festhalten, die alleinigen „Macher“ zu sein, verlieren an Einfluss. Designer, die wie Regisseure agieren – indem sie Anleitungen als Briefings schreiben, wiederverwendbare Prompt-Bibliotheken erstellen und die KI-Ausgaben mit echten Nutzern auf Herz und Nieren prüfen – gewinnen diesen Einfluss. Das Portfolio von 2026 wird weniger Dribbble-Politur und mehr Beweise dafür zeigen, wie Sie einen KI-Stack in ein kohärentes, menschliches Produkt gesteuert haben.
Ein Turbo-Boost für den No-Code Tsunami
No-Code hat bereits Millionen von Menschen zu unbeabsichtigten Softwareentwicklern gemacht; KI-Design-Tools wie Compos.ai drohen nun, den hässlichsten Teil dieser Revolution zu beseitigen: standardisierte Benutzeroberflächen. Anstatt durch dieselben 40 Vorlagen in Webflow, Bubble oder Adalo zu scrollen, gibt man „Essensliefer-App für Hochschul-Campus“ ein und erhält innerhalb von Sekunden ein maßgeschneidertes UI-System.
No-Code- und Low-Code-Plattformen haben Datenmodelle, Workflows und Bereitstellungen gelöst, doch die Front-End-Ästhetik blieb im Drag-and-Drop-Purgatorium stecken. Entwickler mussten entweder mit generischen Vorlagen leben oder einen Designer engagieren, um die Dinge später zu optimieren, was einen Engpass erzeugte, der die ansonsten schnelle Entwicklung verlangsamte.
KI-generiertes Design fungiert als das fehlende Glied, das sowohl die visuelle Sprache als auch das strukturelle Layout automatisiert, die Vorlagen nur annähernd wiedergeben. Compos.ai liefert nicht einfach einen Heldenbildschirm; es erstellt vollständige Bildschirmflüsse, Komponentenhierarchien und konsistente Design-Token, die sich sauber auf moderne UI-Frameworks abbilden lassen.
Moritz | AI Builder hat einen gesamten Kanal auf dieser Grundlage aufgebaut: nicht-technische Gründer können echte Software entwickeln, indem sie spezialisierte AI-Tools miteinander verknüpfen. Seine Videos zeigen regelmäßig End-to-End-Projekte – Chrome-Erweiterungen, SaaS-Dashboards, mobile Apps – die mit AI-Co-Piloten anstatt von IDEs und handgeschriebenem Code erstellt wurden.
Ein plausibler Workflow für 2025 sieht brutal simpel aus. Sie entwickeln Ideen auf Papier, öffnen dann Compos.ai, geben Aufforderungen wie „Abo-Fitness-Tracker-App“ ein und lassen Gemini 3 innerhalb einer Minute ein mehrseitiges Design-System generieren.
Als Nächstes exportieren Sie diese Bildschirme als Figma-Dateien oder produktionsfertige Komponenten, die mit Frameworks übereinstimmen, die No-Code-Tools bereits verstehen. Viele No-Code-Plattformen akzeptieren mittlerweile Importe über Figma-Plugins oder React-ähnliche Komponenten-Schemata, sodass der Übergang von Pixeln zu Logik erheblich vereinfacht wird.
Dann wechselst du zu einem Builder wie Bubble, FlutterFlow oder Framer und richtest Folgendes ein: - Authentifizierung und Benutzerkonten - Datenbankmodelle und CRUD-Workflows - Integrationen mit Stripe, Twilio oder Drittanbieter-APIs
Anstatt mit dem Layout zu kämpfen, verbringen Sie Ihre Zeit mit Preisgestaltung, Onboarding und Wachstumsschleifen. No-Code versprach, Software zu demokratisieren; KI-Design hat die letzte große Lücke zwischen einem Skizzenblock und etwas geschlossen, das die Nutzer nicht sofort deinstallieren werden.
Kartierung des KI-Design-Ökosystems
AI-Design ist bereits ein überfülltes Viertel, und Compos.ai ist nur eine Adresse in der Straße. Wenn man herauszoomt, sieht man einen schnell wachsenden Stapel von Tools, die alle etwa das Gleiche versprechen – weniger Klicks, mehr Bildschirme – aber das Problem aus unterschiedlichen Perspektiven angehen.
Google hat heimlich sein eigenes KI-natives Designsystem mit Stitch veröffentlicht, einem internen Tool, das produktionsbereite Benutzeroberflächen für Android und das Web aus hochrangigen Spezifikationen automatisch generiert. In Kombination mit Gemini zielt Stitch weniger auf Dribbble-Ästhetik und mehr darauf ab, Code zu liefern, der standardmäßig mit den Richtlinien für Material Design und Barrierefreiheit übereinstimmt.
Am anderen Ende des Spektrums richtet sich Uizard an Nicht-Designer. Geben Sie „Fitness-Coaching-Dashboard“ ein, und es liefert mehrschirmige Wireframes, Themen und Komponentenvarianten sowie „Autobeschreiben“-Funktionen, die Screenshots oder Skizzen in bearbeitbare Layouts umwandeln. Uizard berichtete bis 2023 von mehr als 1 Million Nutzern, ein Zeichen dafür, dass KI-gestützte Design-Tools bereits weit über die Power-Nutzer von Figma hinaus Anklang finden.
Figma bleibt erwartungsgemäß nicht untätig. Die KI-Funktionen, die 2024 angekündigt wurden, versprechen die sofortige Erstellung von Wireframes aus Eingaben, automatische Umbenennung von Ebenen, das Umschreiben von Inhalten und das Aufräumen von Stilen in bestehenden Dateien. Die Idee besteht nicht darin, ein neues Werkzeug zu schaffen, sondern einen KI-Co-Piloten zu integrieren, der dort eingebettet ist, wo bereits über 4 Millionen Designer jeden Tag arbeiten.
Dann gibt es reine KI-Design-Engines wie Galileo AI, die sich auf hochqualitative Marketing- und Produkt-UIs aus Textanweisungen konzentrieren. Galileo erstellt ausgefeilte Bildschirmansichten mit Text, Bildvorschlägen und Komponentenstruktur und exportiert diese anschließend nach Figma für umfangreiche Bearbeitungen, wobei es sich als das "Top of Funnel" für visuelle Erkundung positioniert.
Verschiedene Tools optimieren verschiedene Ebenen des Stacks: - Wireframes und Abläufe: Uizard, Figma AI Wireframes - Hochwertige Mockups: Galileo AI, Compos.ai - Design-zu-Code und Systeme: Stitch, Anima, Locofy
Die Richtung ist klar: KI wird nicht lange in einem separaten Tab leben. Jede wichtige Design-Oberfläche – Figma, die Nachfolger von Adobe XD, Webflow, Framer, sogar Notion und Miro – bemüht sich, Generierung, Refactoring und Übergabe nativ KI-gesteuert zu gestalten, sodass „zeichne mir diesen Bildschirm“ ebenso selbstverständlich wird wie „Cmd+Z“.
Der unfaire Vorteil für Startups
Startups haben eine neue Art von Hebel erhalten: Zeitkompression. Wenn Tools wie Compos.ai in weniger als einer Minute ein Multi-Screen-App-Design generieren können, verwandelt sich der alte zwei-monatige „UX-Sprint“ in eine 20-minütige Prompt-Sitzung. Dieser Wandel schreibt die Strategie in der frühen Phase mehr neu als jede Anpassung eines Pitch-Decks es je könnte.
Für Gründer hat der größte Einfluss das MVP und den Fundraising-Zyklus. Ein Solo-Unternehmer kann an einem Wochenende mit nur einer Problemstellung starten und mit Folgendem herauskommen: - Einem klickbaren Prototyp - Einer ausgefeilten mobilen Benutzeroberfläche - Screen-Flows für Onboarding, Zahlungen und Einstellungen
Früher musste man dafür einen Designer einstellen, Wochen warten und 5.000 bis 20.000 Dollar an Agentur- oder Auftragnehmergebühren ausgeben. Jetzt liegt die Grenzkosten für eine weitere Version nahe null, sodass der sinnvolle Schritt darin besteht, fünf Variationen zu versenden und sie alle zu testen.
Investor-Präsentationen ändern sich ebenfalls. Anstelle von abstrakten Drahtgittermodellen und Funktionslisten können Gründer nahezu produktionsreife Bildschirme verwenden, die von Gemini 3-gestützten Tools generiert wurden. Ein Pre-Seed-Deck kann drei konkurrierende Produktrichtungen, lokalisierte Varianten und den Dunkelmodus zeigen – alles an einem Nachmittag erstellt. Die Geschichte wird von „wir werden das bauen“ zu „wir haben bereits diese sechs Optionen erkundet.“
Solo-Gründer erhalten etwas, das näher an einer Designabteilung in ihrem Browser ist. Sie können durch Onboarding-Flows, Preisgestaltungsseiten und Empfehlungsbildschirme iterieren – und das in einem Tempo, das historisch einen Produktmanager, einen UX-Designer und einen visuellen Designer benötigte. Das bedeutet mehr Experimente, schnellere Aufgabe schlechter Ideen und weniger emotionale Bindung an ein einzelnes Design.
Der Wettbewerbsdruck steigt entsprechend. Wenn Ihr Konkurrent eine neue Funktion in 10 Minuten visualisieren und am selben Tag einen Prototyp an die Benutzer ausliefern kann, ist ein drei Monate dauernder Designzyklus nicht nur langsam, sondern grob fahrlässig. In Märkten, in denen Geschwindigkeit entscheidend ist – wie im Konsumsozialbereich, Fintech und bei Tools für Kreative – wird die Zeit von „Idee zu Benutzeroberfläche“ zu einem wesentlichen KPI.
Gründer haben nun eine wachsende Auswahl an KI-nativen Toolchains. Compos.ai steht neben Plattformen in Leitfäden wie 12 Besten KI-App-Bauer-Tools für 2025 und verwandelt das Design und den Aufbau in einen kombinierten, kontinuierlichen Prozess. Die Startups, die überleben werden, betrachten dies als Infrastruktur, nicht als Partytrick.
Ihr erster Schritt im KI-gesteuerten Design
Fang klein an, aber fang jetzt an. Das Design mit KI wechselt nur von Hype zu Muskelgedächtnis, wenn du eine echte Idee durchläufst und spürst, wo sie glänzt und wo sie bricht.
Gehe zu Compos.ai und erstelle ein kostenloses Konto. Gib im Eingabefeld eine klare Anfrage ein: „Entwickle eine mobile App zur Verfolgung meiner persönlichen Lesegewohnheiten. Inklusive Onboarding, einem Home-Dashboard, Buchdetailseiten und monatlichen Statistiken.“
Halten Sie Ihr erstes Experiment fokussiert und spezifisch. Eine Lese-Tracker-App deckt alle Grundlagen ab – Navigation, Datenanzeige, leere Zustände und einfache Interaktionen – ohne Sie mit Randfällen zu überhäufen.
Bitte die KI um mehrere Varianten. Erstelle einen ersten Entwurf und verfeinere ihn dann mit Aufforderungen wie „mach das minimalistischer“, „optimiere für die einhändige Nutzung“ oder „priorisiere Typografie über Bildmaterial“.
Behandle das Ergebnis wie den ersten Entwurf eines Junior-Designers, nicht als fertiges Produkt. Exportiere die Bildschirme und führe dann eine schnelle Kritik durch: Sind die Berührungsziele groß genug? Ist die Hierarchie klar? Fühlen sich wiederholte Muster konsistent an?
Integriere ein weiteres Tool, um zu sehen, wie es sich mit deinem bestehenden Workflow verhält. Importiere die Designs in Figma oder Penpot und passe Abstände, Farben und Bewegungen manuell an, um zu verstehen, wo KI dir einen Schub gibt und wo du weiterhin den meisten Wert hinzufügst.
Dokumentieren Sie, was funktioniert. Führen Sie ein kurzes Protokoll über: - Eingabe-Muster, die verwendbare Layouts erzeugt haben - Fehlermuster (verwirrende Abläufe, seltsame Komponenten) - Zeitersparnis im Vergleich zu Ihrem gewohnten Prozess
Teile das Experiment mit einem Freund oder Teamkollegen. Bitte sie, eine Aufgabe zu erledigen – „ein fertiges Buch zu protokollieren und deinen Lese-Streak zu sehen“ – und beobachte, wo sie zögern oder sich verloren fühlen.
Erwarten Sie, dass sich dies bald normal anfühlen wird. In den nächsten 12–24 Monaten werden KI-Co-Piloten in jedes bedeutende Design- und Produktwerkzeug integriert sein, von Figma über GitHub bis hin zu Webflow, und standardmäßig automatisch Flows, Komponenten und Texte erstellen.
Ihr Vorteil liegt darin, diese Fähigkeit zur Zusammenarbeit frühzeitig zu entwickeln. Je früher Sie lernen, fließend „Prompt“ zu sprechen und die Ergebnisse von KI gnadenlos zu kritisieren, desto mehr Einfluss bringen Sie in jedes digitale Produkt, das Sie berühren.
Häufig gestellte Fragen
Was ist Compos.ai?
Compos.ai ist eine KI-gestützte Plattform, die fortschrittliche Modelle wie Googles Gemini nutzt, um automatisch komplette Designbildschirme für mobile Apps aus einem einfachen Textprompt zu erstellen.
Wie funktioniert der Designprozess dieser KI-App?
Benutzer geben eine Beschreibung in natürlicher Sprache ein, wie z.B. 'Essensliefer-App'. Die KI interpretiert die Anfrage und erstellt ein vollständiges Set an UI/UX-Bildschirmen, einschließlich Layouts, Komponenten und Farbpaletten.
Ersetzt KI menschliche App-Designer?
Derzeit erweitern KI-Tools wie dieses den Designprozess, indem sie erste Mockups und Wireframes automatisieren. Dies ermöglicht es Designern, sich auf strategische Überlegungen, die Verfeinerung der Benutzererfahrung und kreatives Problemlösen zu konzentrieren.
Welches KI-Modell verwendet Compos.ai für seine besten Designs?
Laut dem Video wird die 'Design Max'-Funktion in Compos.ai von Gemini 3 unterstützt, das die fortschrittliche multimodale KI von Google für hochwertige visuelle Generierung nutzt.