Wenn der CEO oder CIO kommt und sagt “Wir brauchen KI in unserem Entwicklungsprozess,” ist die richtige Reaktion nicht, sofort loszulegen. Die richtige Reaktion ist zu fragen: Warum? In diesem Vortrag an der Conf42 Platform Engineering zeige ich den kompletten Weg: von der Identifikation von Value-Stream-Engpässen bis zur Implementierung von KI-augmentiertem DevOps auf einer echten Plattform, inklusive Live-Demo.
Mit dem Value Stream beginnen, nicht mit KI#
Wenn das Management KI fordert, sind die eigentlichen Ziele dahinter meist: schnellere Time to Market, mehr Wert für das Geld und höhere Qualität. Das sind legitime Ziele. Aber um sie zu erreichen, muss man zuerst seinen Value Stream verstehen.
Value Stream Mapping ist der essentielle Startpunkt. Man bringt alle Personen, die über einen Value Stream hinweg arbeiten, in einen Raum, legt jeden Schritt von der Idee bis zur Produktion auf, identifiziert, wer für jeden Schritt verantwortlich ist, und misst drei Dinge: Lead Time (verstrichene Gesamtzeit), Process Time (tatsächliche wertschöpfende Arbeit) und Percentage Complete and Accurate (Qualität des Outputs).
Wenn man dieses Bild hat, werden Engpässe sofort sichtbar. Zum Beispiel könnte ein Test-Schritt 8 Stunden tatsächliche Arbeit zeigen, aber 336 Stunden Lead Time, und eine 50%-Qualitätsrate, was bedeutet, dass die Hälfte der Arbeit wiederholt werden muss. Das sind die Stellen, an denen Verbesserungen die grösste Wirkung haben.
Nicht alles muss mit KI gelöst werden. Manchmal ist es viel besser, einfach den Prozess zu verbessern oder komplett neu zu denken.
Wo KI im DevOps-Lebenszyklus helfen kann#
Sobald man echte Engpässe identifiziert hat, kann KI strategisch über den gesamten DevOps-Lebenszyklus eingesetzt werden:
- Plan: Historische Projektdaten analysieren, Risiken, Ressourcenbedarf und Liefertermine vorhersagen
- Code: Code generieren, refactoren, debuggen und erklären mit Copilots
- Build: Sicherheitslücken automatisch beheben
- Test: Impact-Analyse von Änderungen und intelligente Testauswahl
- Deploy: Auswirkungen des Deployments vorhersagen, Gesundheit überwachen, automatische Rollbacks auslösen
- Release: Kontinuierliche Release-Verifizierung und Impact-Analyse
- Operate: Konfigurationsabweichungen automatisch erkennen und beheben
- Monitor: Mustererkennung, Anomalie-Erkennung, Event-Korrelation, Root-Cause-Analyse und Self-Healing (oft als AIOps bezeichnet)
Das sind mächtige Fähigkeiten, aber sie alle brauchen die richtige Grundlage.
Platform Engineering: Die Grundlage für KI im grossen Massstab#
Ohne Standardisierung skaliert KI-augmentiertes DevOps nicht. Wenn jedes Team seine eigene lokale Entwicklungsumgebung und seine eigene Tool-Landschaft hat, gibt es keine konsistente Grundlage zum Aufbauen.
Platform Engineering löst dieses Problem. Man schafft eine Plattform, auf der Tools und Fähigkeiten standardisiert sind. Das Zielbetriebsmodell hat zwei Typen von Teams: Produkt-Teams, die kleiner und fokussierter sind, und ein Platform-Team, das Self-Service-Fähigkeiten über eine interne Developer-Plattform bereitstellt.
Das architektonische Prinzip, das ich immer betone, ist eine Floating Platform zu bauen. Das bedeutet: Services und Tools (GitHub, GitLab, Kubernetes, Cloud-Anbieter) einstecken und eine Developer-Experience-Schicht darüber bereitstellen. Niemals Features der darunterliegenden Tools duplizieren. Sie über Adapter integrieren, damit sie bei Bedarf ausgetauscht werden können. Sobald man anfängt, Features zu verstecken, zu abstrahieren oder zu duplizieren, beginnt die Plattform zu sinken.
KI als Plattform-Fähigkeit#
In der Plattformarchitektur ist KI einfach eine weitere Fähigkeit, aber eine mächtige. Wenn man in diese KI-Fähigkeit hineinzoomt, sehen die Schichten so aus:
- Developer Portal und APIs oben, die KI-Services für Produkt-Teams bereitstellen
- Anwendungsschicht mit Chatbots, KI-Coding-Assistenten und Wissensmanagement
- Tooling-Schicht mit Prompt Engineering, RAG-Systemen und Vektor-Datenbanken
- Modell-Schicht mit einem Model Hub, unternehmensspezifischen Modellen und feinjustierten Konfigurationen
- Infrastrukturschicht mit Integration der Gen-KI-APIs der Cloud-Anbieter
Live-Demo: KI in Aktion auf einer echten Plattform#
Im Vortrag demonstrierte ich die Plattform, die wir zusammen mit LGT gebaut haben, einer Bank in Liechtenstein. Die Plattform namens Zühlke Plane wird sowohl intern bei Zühlke als auch von LGT mit einer eigenen Instanz genutzt. Hier einige der KI-Features in Produktion:
KI-Chat: Eine ChatGPT-ähnliche Oberfläche, die bei Zühlke standardisiert und gouverniert ausgerollt wurde. Mitarbeitende müssen nicht wissen, welches LLM dahinter läuft, und der zugrundeliegende Service kann transparent ausgetauscht werden.
Container-Image-Analyse: Entwickler können Container-Image-Schichten einsehen und per Knopfdruck eine KI-Analyse erhalten. Das LLM ist für Container-Image-Analyse optimiert und liefert handlungsrelevante Einblicke. Das Feedback der Entwickler war äusserst positiv.
Log-Analyse: Da alle Logs durch die Plattform fliessen, können Entwickler ganze Kubernetes-Namespaces mittels KI analysieren. Das System untersucht Log-Muster und liefert strukturierte Einblicke, was erheblich Zeit bei der Fehlersuche spart.
Self-Service-KI-Fähigkeiten: Produkt-Teams können Azure OpenAI oder eine vollständige LLM-Plattform über den Service-Katalog ihren Applikationen hinzufügen. Teams haben Anwendungen wie einen Projektreferenz-Finder und einen Angebotsoptimierungsprozess mit spezialisierten KI-Agenten und massgeschneiderten System-Prompts gebaut. Diese wurden in kürzester Zeit erstellt, weil die Plattform die gesamte Infrastruktur bereitstellte.
Das Floating-Platform-Prinzip#
Eine der wichtigsten Lektionen aus dieser Arbeit: Die Plattform muss schwimmen. Sie muss auf allen Tools und Cloud-Anbietern aufliegen, ohne zu versuchen, sie zu ersetzen. Wenn Tools neue Features veröffentlichen, profitiert man automatisch. Wenn man ein Tool austauschen muss (zum Beispiel GitLab durch GitHub ersetzen), macht das Adapter-Pattern dies möglich, ohne die Plattform zu stören.
In dem Moment, in dem man ein Feature der darunterliegenden Tools abstrahiert oder dupliziert, beginnt die Plattform zu sinken. Das ist der grösste architektonische Fehler, den ich im Platform Engineering sehe.
Kernaussagen#
- Mit Value Stream Mapping beginnen, nicht mit KI. Die Engpässe verstehen, bevor man nach Technologielösungen greift.
- KI ist nicht immer die Antwort. Manchmal ist Prozessverbesserung einfacher und wirkungsvoller.
- Platform Engineering ist die Grundlage für KI-augmentiertes DevOps im grossen Massstab. Ohne Standardisierung skaliert nichts.
- Eine Floating Platform bauen. Tools über Adapter integrieren, niemals ihre Features duplizieren.
- KI ist eine Plattform-Fähigkeit. Sie als Self-Service den Produkt-Teams bereitstellen, damit diese ihre eigenen Anwendungsfälle bauen können.
- Das Business befähigen, nicht nur das Engineering. Die KI-Fähigkeiten der Plattform können Business-Anwendungen wie Referenzfinder und Prozessoptimierer antreiben, nicht nur Entwickler-Tools.
Wir betreten das Zeitalter der industrialisierten Softwareentwicklung. Platform-Teams bauen die Plattform, die Entwicklungsteams KI-augmentiertes DevOps ermöglicht, und die gleichzeitig dem Business ermöglicht, mit KI zu innovieren.
