Agile hat in den letzten zwei Jahrzehnten das Software program-Engineering grundlegend verändert. Es reagierte auf das Scheitern groß angelegter Waterfall-Programme, die unter der Final langsamer Anforderungszyklen und umfangreicher Dokumentation zusammenbrachen. Iterative Sprints, teamübergreifende Zusammenarbeit und „Arbeitssoftware statt Dokumentation“ waren die drei großen Grundsätze der Softwarebranche. Die gleiche Beliebtheit, die Agile genießt, hat seine Ineffizienzen verschleiert, wie z. B. die Abschaffung von Zeremonien, ohne dass ein Ende in Sicht ist, die steigenden Gemeinkosten der Rollenspezialisierung und eine Unternehmenskultur, die zunehmend mit ständigen Kontextwechseln auf Kosten der Verantwortlichkeit lebt.
Die Einführung großer Sprachmodelle (LLMs) hat eine erneute Überprüfung ausgelöst. Da KI in der Lage ist, Backlog-Grooming, Aufgabenzerlegung, Testgenerierung, Dokumentation und sogar Architekturentwurf zu übernehmen, gelten die Annahmen, die Agile am Laufen hielten, nicht mehr. Die strukturierte Entwicklung ist wieder auf dem Tisch, nicht als starrer Wasserfall der Vergangenheit, sondern als neues, KI-gestütztes Modell, bei dem lineare Phasen wieder Sinn machen, weil die Übergaben, die früher zu Ausfällen führten, jetzt automatisiert sind. Das ist „Wasserfall 2.0“.
Ein Entwickler, viele Rollen
In der traditionellen Landschaft battle es für einen Entwickler nicht möglich, den gesamten Lebenszyklus im großen Maßstab abzudecken. Ein einzelner Ingenieur könnte Geschäftsanalysen, Architektur, Implementierung, Checks und Dokumentation nicht ohne Verzögerungen und Fehler durchführen. Diese Einschränkung ist nun weg.
Mit LLMs kann die Analyse beschleunigt werden, indem mehrdeutige Anforderungen in strukturierte Annahmen umgewandelt werden. Ein LLM kann eine Reihe von Benutzerinterviews oder Marktnotizen erstellen und Consumer Tales entwerfen, für die andernfalls ein Enterprise-Analyst erforderlich wäre. Während der Entwurfsphase kann das Modell dabei helfen, Architekturmuster vorzuschlagen, Kompromisse zu vergleichen und sogar UML-Diagramme zu erstellen. Während der Implementierung helfen KI-gestützte IDEs beim Code-Gerüst, der Durchsetzung von Styleguides und der Durchführung kontextbezogener Umgestaltungen über Dateien hinweg. Paradoxerweise kann das Testen das LLM sein, das die Logik selbst geschrieben hat und Einheiten-, Integrations- und eigenschaftsbasierte Checks ausgibt, die auf die dokumentierte Teststrategie abgestimmt sind. Während der Bereitstellung könnte man die KI nutzen, um CI/CD-Pipelines, IaC-Vorlagen und Observability-Dashboards zu generieren.
Dies würde einen Arbeitsablauf schaffen, in dem ein Einzelentwickler nicht zum Generalisten werden kann, der zwangsläufig auf der Strecke bleibt, weil er alles wissen muss. In Bezug auf die Produktivität ist der Unterschied nicht nur marginal – es geht darum, die Zeit von Monaten auf Wochen zu verkürzen. Ein Ingenieur könnte ein komplettes Microservices-, Dokumentations- und Überwachungssystem einrichten. Der Engpass liegt nicht mehr in der Ausführung, sondern in der Entscheidungsfindung: was gebaut werden soll und warum.
Beispiele aus der Praxis zeigen diesen Wandel bereits. Produkte, für die früher Groups erforderlich waren, werden jetzt von einzelnen Entwicklern mithilfe von KI auf den Markt gebracht. SiteGPT, ein KI-Chatbot-Builder, wurde an einem einzigen Wochenende programmiert und generierte anschließend erhebliche monatliche Einnahmen. Writesonic, das sich zu einer millionenschweren KI-Schreibplattform entwickelte, begann als Soloprojekt. In einem anderen Fall entwickelte ein Entwickler in nur 15 Tagen Reeli, einen KI-Sprachassistenten in persischer Sprache, indem er Instruments wie Cursor und Claude kombinierte. Dabei handelt es sich nicht um Einzelfälle, sondern um Beweise dafür, dass alleinige KI-gestützte Entwicklung zu Millionengeschäften führen kann.
Arbeitsabläufe neu gedacht
In Groups ist der Effekt noch stärker. Traditionelles Scrum verteilt die Verantwortung auf alle Rollen – Produktbesitzer verfeinern den Backlog, Scrum-Grasp koordinieren Zeremonien, Tester validieren Funktionen und Designer erstellen Modelle. In der Praxis verursacht diese Verteilung jedoch einen Mehraufwand. Agile versprach Geschwindigkeit, lieferte aber häufig Besprechungen ab.
KI komprimiert dies. Die Verfeinerung des Backlogs eines Produktbesitzers wird zu einer nahezu sofortigen Umwandlung roher Besprechungsnotizen in strukturierte Epen und Geschichten, sodass nur noch die Priorisierung der menschlichen Beurteilung überlassen bleibt. Die Funktion des Scrum Masters, Standups und Retrospektiven zu ermöglichen, wird durch KI automatisiert, die tägliche Updates konsolidiert und Blocker aus Commit-Mustern erkennt. Designer stellen fest, dass das Prototyping im Frühstadium von Instruments übernommen wird, die Texteingabeaufforderungen in Wireframes übersetzen, die Entwickler direkt iterieren können. Tester sehen, dass sich ihre Arbeit von der Erstellung von Testfällen hin zur Validierung von KI-generierten Fällen verlagert.
Zeremonien schrumpfen oder verschwinden. Standups werden zu asynchronen Berichten, die von der KI in einem teamweiten Dashboard verarbeitet werden. Die Sprintplanung reduziert sich auf die Genehmigung von KI-generierten Aufgabenaufteilungen. Retrospektiven sind datengesteuert, wobei die KI auf Hotspots in Commit-Protokollen, Code-Änderungen und Fehlerclustern hinweist. Der Nettoeffekt ist kein Chaos, sondern Klarheit. Groups arbeiten jetzt in strukturierten Abläufen, die wie lineare Anforderungen aussehen: Design, Construct, Take a look at und Launch, behalten aber die Agilität, jeden Schritt sofort zu überarbeiten, da die KI die Wiederholungen und Überarbeitungen übernimmt.
Artefakte im KI-Zeitalter
Artefakte, einst die Achillesferse des Wasserfalls, werden in diesem neuen Modell neu definiert. Das klassische Downside bestand darin, dass Dokumente schneller alterten, als sie aktualisiert werden konnten. Architekturentscheidungen, die einmal geschrieben wurden, spiegelten sechs Monate später nur selten die Realität wider. Onboarding-Handbücher waren am Tag ihrer Veröffentlichung veraltet. Die Teststrategien waren vage und CI/CD-Pipelines wurden zu brüchigen Skripten, die niemand pflegte.
Mit der KI im Kreislauf werden Artefakte zu lebendigen Eingaben. Ein Architekturentscheidungsdatensatz kann mit Alternativen, Konsequenzen und Empfehlungen generiert, vom Architekten verfeinert und in der Versionskontrolle gespeichert werden. Dieser Datensatz ist der von der KI selbst genutzte Kontext und steuert die konsistente Generierung später im Projekt. Als Klartext gespeicherte Styleguides werden nicht nur zu Referenzen, sondern zu durchsetzbaren Regeln, da LLM-basierte Linters sie automatisch anwenden.
Die Onboarding-Dokumentation wird kontinuierlich aktualisiert. Anstatt dass ein Mensch die FAQs verwaltet, durchsucht die KI Repositories, Subject-Tracker und Commit-Verläufe, um Leitfäden zu aktualisieren. Ein neuer Mitarbeiter liest kein statisches PDF, sondern befragt einen Onboarding-Assistenten, der die Antworten mit der neuesten Codebasis kontextualisiert. Teststrategien, die einst in der Verantwortung des Menschen lagen, entwickeln sich zu einer Reihe übergeordneter Abdeckungsziele, während die KI die konkreten Testsuiten generiert. Pipelines sind keine handcodierten YAML-Dateien mehr, sondern von der KI vorgeschlagene Konfigurationen, die sich mit dem Projekt weiterentwickeln. Sobald Sicherheitschecklisten in Compliance-Dokumenten vergraben sind, werden sie zu Dwell-Eingabeaufforderungen, anhand derer die KI den Code kontinuierlich prüft.
Das Ergebnis ist eine geschlossene Rückkopplungsschleife: Artefakte werden schneller erstellt, bleiben länger präzise und dienen als direkte Anweisungen sowohl für menschliche Entwickler als auch für KI-Systeme.
Geschwindigkeit mit Risiken in Einklang bringen
Die Effizienzgewinne sind unbestreitbar, aber die Risiken sind struktureller Natur und erfordern ein bewusstes Administration. KI-generierter Code ist zwar schnell, aber anfällig für subtile Fehler. Die Entwürfe weisen auf eine höhere Fehler- und Schwachstellenquote hin, wenn LLMs nicht überprüft werden. Hinzu kommen Ausführlichkeit und Doppelarbeit, die die technische Verschuldung erhöhen und die Wartung erschweren. LLMs leiden auch unter Einschränkungen des Kontextfensters, was bedeutet, dass sie nicht ein ganzes Großsystem in ihrem Umfang aufnehmen können. Dies führt zu Inkonsistenzen zwischen den Modulen und einer fragmentierten Architekturkohärenz.
Es besteht auch das kognitive Risiko: übermäßiges Vertrauen. Wenn Entwickler KI-generierte Artefakte ohne Prüfung akzeptieren, verlieren sie nach und nach das mentale Modell ihres eigenen Techniques. Das Verständnis verkümmert, und was bleibt, ist eher Orchestrierung als Technik. Der kurzfristige Geschwindigkeitsgewinn wird zu einer langfristigen Belastung für die Widerstandsfähigkeit.
Die richtige Reaktion besteht nicht darin, sich zurückzuziehen, sondern die technische Disziplin zu verstärken. Die Codeüberprüfung gewinnt wieder an Bedeutung, nicht als Ritual, sondern als Schutzmaßnahme gegen selbstbewusste Fehler der KI. Automatisierte Checks müssen über die Korrektheit hinaus auf die Sicherheits- und Leistungsvalidierung ausgeweitet werden. Die Überwachung der Architektur ist von entscheidender Bedeutung, um sicherzustellen, dass KI-generierte Mikroentscheidungen weiterhin dem größeren Systemdesign dienen. Tatsächlich muss KI wie ein Nachwuchsentwickler behandelt werden, der nie müde wird, aber immer einer Überprüfung bedarf. Die Rolle des leitenden Entwicklers verlagert sich von der Ausführung zur Leitung, Qualitätssicherung und zum strategischen Design.
Die Zukunft von Bildung und Kompetenzen
Die wechselnden Wellen dieser Veränderungen werden sich weiterhin auf die gesamte Bildung und die Vorbereitung der Arbeitskräfte auswirken. Universitäten, die weiterhin Programmieren lehren, als ob es keine KI gäbe, werden ihre Absolventen in Verzug bringen. Wenn man sich in Einführungskursen hingegen zu sehr auf KI verlässt, besteht möglicherweise die Gefahr, dass Ingenieure nicht in der Lage sind, ohne Krücke zu programmieren. Die Bilanz ist dünn.
Dies legt nahe, die KI-lastige Integration zu verzögern, bis die Studierenden die Grundlagen von Algorithmen, Debugging und Systemdesign beherrschen. Erst dann sollte KI als Kollaborateur eingeführt werden. Einige Programme experimentieren bereits mit Doppelaufgaben: Ein Satz wird ohne KI abgeschlossen, ein anderer mit KI, um sowohl Unabhängigkeit als auch Erweiterungsfähigkeiten zu vermitteln.
Die Fähigkeiten, die am wichtigsten sind, verändern sich. Eine zeitnahe Konstruktion ist nicht trivial; Zu wissen, wie Anforderungen präzise formuliert werden können, ist heute eine zentrale technische Aufgabe. Kritische Bewertung wird zu einer Überlebensfähigkeit, da Ingenieure der KI-Ergebnisse regelmäßig misstrauen und sie überprüfen müssen. DevOps erweitert sich zu KI-erweiterten Pipelines, in denen Ingenieure KI-Module integrieren, überwachen und neu trainieren müssen. Ethik und Compliance rücken in den Vordergrund, da KI-gesteuerte Systeme das Risiko von Voreingenommenheit und Datenschutzverletzungen verstärken.
Der Arbeitsmarkt verändert sich bereits. Neue Titel wie „LLM Engineer“ oder „AI-Augmented Developer“ signalisieren die Nachfrage nach Fachkräften, die technische Tiefe mit der Fähigkeit kombinieren, KI über den gesamten Lebenszyklus hinweg zu steuern. Wer sowohl die Grundlagen als auch die Zusammenarbeit mit KI fließend beherrscht, wird das nächste Jahrzehnt der Softwareentwicklung bestimmen.
Abschluss
Wasserfall 2.0 ist keine Nostalgie. Es ist das rationale Ergebnis eines neuen Gleichgewichts: Wenn KI die Engpässe bei Übergaben beseitigt, gewinnen strukturierte Phasen wieder an Wert. Solo-Entwickler erreichen nun das, was früher Groups erforderten. Groups fassen Rollen und Zeremonien in optimierten Abläufen zusammen. Artefakte entwickeln sich zu lebendigen Inputs, die sowohl die menschliche Zusammenarbeit als auch die KI-Generierung vorantreiben. Die Bildung rüstet sich für eine Zukunft um, in der die Beherrschung von KI ebenso wichtig ist wie die Beherrschung von Code.
Die Risiken, von technischer Verschuldung bis zum Verlust des Verständnisses, sind actual, aber sie sind kein Hingucker. Sie erfordern Disziplin, Kontrolle und ein klares Verständnis dafür, wo menschliches Urteilsvermögen unersetzlich bleibt.
Die Softwareindustrie tritt in eine Section ein, in der die entscheidende Fähigkeit nicht nur im Codieren oder Verwalten, sondern auch in der Orchestrierung von KI innerhalb strukturierter Systeme liegt. Wer dieses Gleichgewicht schafft, wird schnellere, konsistentere und belastbarere Software program entwickeln – nicht weil er die Lehren der Vergangenheit aufgegeben hat, sondern weil er verstanden hat, wie er sie in das Zeitalter der KI übertragen kann.
