Skip to content
Zum Inhalt springen
#vise-coding#ai-agents#java#github-copilot#tdd#spec-driven-development

Vise Coding in der Praxis: Strukturierte KI-Entwicklung über 5 Autonomie-Level

mit Dr. David Faragó

Diese Live-Session ging durch fünf Stufen der KI-Coding-Autonomie in Java, aber das eigentliche Learning war einfacher: nachhaltige KI-Entwicklung braucht kleine reviewbare Schritte, explizite Spezifikationen und deterministische Quality Gates.

Veröffentlicht: 3. April 2026Lesezeit: 5 Min. Lesezeit
Vise Coding in der Praxis: Strukturierte KI-Entwicklung über 5 Autonomie-Level

YouTube

Vise Coding in der Praxis: Strukturierte KI-Entwicklung über 5 Autonomie-Level

YouTube-Video laden

Dieses Video wird von YouTube eingebettet und erst nach Ihrer Einwilligung geladen. Beim Laden können personenbezogene Daten an YouTube oder Google übermittelt und Cookies gesetzt werden.

Auf YouTube öffnen

Mehr dazu in der Datenschutzerklärung.

Timestamps der Session

Dr. David Farago war zu Gast, um mit mir über Vise Coding und die fünf Stufen der Autonomie von KI-Coding-Agenten zu sprechen, von einfacher Completion bis zu vollautonomen Entwicklungsagenten. Der nützliche Teil der Session war nicht die Frage, welcher Agent der beste ist. Es ging darum zu sehen, wo KI-Workflows reviewbar bleiben und wo sie anfangen wegzudriften.

Dr. David Faragó

Co-Speaker

Dr. David Faragó

Deep Learning Engineer

David war dabei, um Vise Coding zu beleuchten und die fünf Stufen der Autonomie von KI-Coding-Agenten in einem praktischen Java-Workflow durchzugehen.

Warum diese Session wichtig war

Die Session begann mit einem nützlichen Rahmen: Autonomie ist nicht binär. Es gibt ein echtes Spektrum zwischen Token Completion, Block Completion, Intent-basierten Chat-Agenten, lokalen autonomen Agenten und vollautonomen Entwicklungsagenten.

Das ist wichtig, weil sich die Review-Last mit jeder Stufe verändert. Mehr Autonomie kann mehr Geschwindigkeit bringen, aber eben auch größere Code-Blöcke, breitere Diffs und weniger Klarheit darüber, was sich tatsächlich geändert hat.

Für mich war das eines der zentralen Learnings des Streams: Reviewbarkeit ist ein Kernbestandteil von Vise Coding.

Auf höheren Autonomie-Stufen verschiebt sich die Priorität aber etwas. Änderungen sollen zwar weiterhin verständlich bleiben, aber der stärkere Kontrollpunkt liegt dann darin, dauerhaft hohe Qualität über deterministische Guardrails wie Quality Gates und statische Analyse sicherzustellen.

Wo Vibe Coding an Grenzen stößt

Genau hier beginnt Vibe Coding zu kippen.

Wenn das Modell zu viel Code auf einmal erzeugt, reviewt man nicht mehr sauber. Ab diesem Punkt steuerst du die Änderung nicht mehr wirklich. Du versuchst dann hauptsächlich, Probleme nachträglich zu finden, und das skaliert in echten Projekten nicht gut.

Die Live-Demos haben dieses Risiko gut sichtbar gemacht. Sobald die Schrittgröße zu groß wird, wird der Workflow schwerer zu verstehen, schwerer zu verifizieren und schwerer wartbar zu halten.

Vergleich von Vibe Coding und Vise Coding

Was Vise Coding ergänzt

Vise Coding ist der Gegenentwurf: die Änderung planen, die Schrittgröße klein halten und jeden Schritt leicht reviewbar machen.

In der Session hieß das, von expliziten Spezifikationen auszugehen, die Arbeit in kleinere Einheiten zu teilen und stark auf automatisierte Tests zu setzen. BDD-artige Workflows passen gut dazu, weil sie das erwartete Verhalten sichtbar halten, während sich der Code darunter verändert.

Das liegt nah an dem, was ich bereits in Guided Coding statt Vibe Coding in Java beschrieben habe. Beide Ansätze bevorzugen Struktur statt Improvisation. Was hier besonders auffiel, war, wie stark Vise Coding diese Struktur an automatisierte Tests und an kleine, überprüfbare Inkremente bindet.

Höhere Autonomie funktioniert weiter, wird aber schwieriger

Eines der wichtigeren Learnings war, dass Vise Coding auf höheren Autonomie-Stufen nicht plötzlich aufhört zu funktionieren. Man kann es weiterhin anwenden, auch wenn Agenten mehr Arbeit übernehmen.

Das Problem ist, dass dieselbe Disziplin schwerer zu halten ist. Mit steigender Autonomie werden die Schritte oft größer. Größere Schritte bedeuten mehr Code zum Prüfen, mehr Kontext im Kopf und mehr Raum für subtile Regressionen.

Genau dort verschiebt sich der Schwerpunkt. Statt sich vor allem darauf zu verlassen, dass Menschen jedes Detail reviewen, braucht es einen Workflow, der über automatisierte Checks, Quality Gates und statische Analyse-Tools weiterhin verlässlich hochwertigen Code produziert.

Die Frage nach Agent Isolation ging in dieselbe Richtung. Wenn Agenten mehr Freiheit bekommen, braucht auch die Umgebung klarere Grenzen. Genau dort werden Sandboxes und kontrollierte Ausführungsumgebungen wichtiger.

Spezifikationen werden in größeren Systemen noch wichtiger

Der Teil zu Spec-Driven Development war besonders relevant für größere oder ältere Codebasen.

Wenn die Spezifikation aktuell bleibt und der Code aus ihr heraus entsteht, bleibt das System über die Zeit leichter verständlich. Das ist in jedem Projekt nützlich, aber gerade in Legacy-Systemen wichtig, in denen der ursprüngliche Gedankengang hinter dem Code oft verloren geht.

Das passt auch gut zu externalisierten Leitplanken wie AGENTS.md. Wenn das Betriebsmodell aufgeschrieben ist, haben Menschen und Agenten einen klareren Vertrag, von dem aus sie arbeiten können.

Der konkrete Agent wird weniger wichtig als der Workflow

Der Vergleich der Agenten war ein guter Reality Check.

Codex, GitHub Copilot, Claude Code und ähnliche Tools unterscheiden sich weiter, aber der Abstand wirkt weniger dauerhaft als noch vor ein paar Monaten. Gute Ideen wandern schnell zwischen Produkten, gerade bei Agent-Verhalten und Workflow-Features.

Dadurch wird der Prozess rund um den Agenten wichtiger als der Agentenname selbst. Der dauerhafte Vorteil ist nicht das Logo. Entscheidend ist, ob der Workflow Änderungen verständlich, testbar und leicht korrigierbar hält.

Deterministische Guardrails werden wertvoller

Genau deshalb werden statische Analyse, Quality Checks und automatisierte Tests immer wichtiger.

Sie geben dir eine deterministische Qualitätslatte, auch wenn das Modell selbst nicht deterministisch ist. Dieser Punkt wurde hier sehr klar, und er passt gut zum früheren Live Vibe Coding Battle, in der PMD, SpotBugs, JaCoCo, Trivy und OWASP ZAP den Unterschied zwischen Code, der okay aussah, und Code, der tatsächlich standhielt, sichtbar gemacht haben.

Das ist der Teil der KI-Entwicklung, von dem ich erwarte, dass er gut altert: nicht blindes Vertrauen in immer größere Modelle, sondern stärkere Guardrails um das jeweils verwendete Modell herum.

Abschließender Gedanke

Diese Session hat kein Plädoyer für grenzenlose Agentenfreiheit geliefert. Sie hat gezeigt, wie man einen Workflow baut, der auch bei steigender Autonomie verständlich bleibt.

Wenn Spezifikationen explizit bleiben, Schritte klein bleiben und Quality Gates streng bleiben, kann KI in einem Java-Workflow ein ernstzunehmendes Engineering-Werkzeug sein. Wenn man diese Dinge weglässt, holt einen die Review-Last sehr schnell ein.

Kommentare

Kommentare optional von GitHub laden

Die Kommentarfunktion wird über Giscus und GitHub Discussions bereitgestellt. Sie wird erst nach Ihrer ausdrücklichen Einwilligung geladen. Beim Laden können personenbezogene Daten wie Ihre IP-Adresse und technische Metadaten an GitHub übermittelt sowie Cookies oder ähnliche Technologien gesetzt werden.

Bitte bestätigen Sie zuerst Ihre Einwilligung, bevor die Kommentare geladen werden.

Mehr dazu in der Datenschutzerklärung.