Lernen mit ChatGPT als Product Owner – Warum dieser Abschnitt der Serie hier endet – und was jetzt folgt

Lernen mit ChatGPT als Product Owner – Warum dieser Abschnitt der Serie hier endet – und was jetzt folgt

Diese Serie endet an dieser Stelle nicht.
Aber sie wechselt den Fokus.

Mit dem Reflexionspanel ist die inhaltliche Intervention abgeschlossen.
Der Lernraum ist bewusst gestaltet.
Der Ablauf klar begrenzt.
Design ist zu diesem Zeitpunkt bewusst nach hinten priorisiert.

Die zu dieser Zeit finale Demo ist hier:
https://www.alexander-vollberg-coaching.de/daily-standup-demo

Aus Product-Owner-Sicht ist damit eine Phase abgeschlossen:
Die Phase der didaktischen Klärung.

Laptop auf einem aufgeräumten Schreibtisch mit einem Reflexionspanel, das den Übergang vom Ablauf zur bewussten Nachbereitung einer Intervention markiert.
Laptop auf einem aufgeräumten Schreibtisch mit einem Reflexionspanel, das den Übergang vom Ablauf zur bewussten Nachbereitung einer Intervention markiert.

Was folgt, ist keine inhaltliche Erweiterung mehr,
sondern eine Professionalisierung.

Der nächste Schritt: vom Prototyp zur belastbaren Entwicklungsbasis

Ab hier verschiebt sich der Schwerpunkt:

  • vom „Was soll dieses System zeigen?“
  • hin zu „Wie wird dieses System zuverlässig weiterentwickelt?“

Das bedeutet konkret:

  • Einbindung des Projekts in GitHub
  • Aufbau einer CI/CD-Pipeline für Unity
  • erste Schritte in Richtung Testautomatisierung

Nicht, weil es technisch schick ist.
Sondern weil Lernen ohne Stabilität nicht skalierbar ist.

Warum auch das Teil von Lernen mit ChatGPT ist

Auch in dieser nächsten Phase bleibt ChatGPT Teil des Prozesses.
Nicht als Ersatz für Engineering-Kompetenz,
sondern als Denk- und Strukturhilfe.

Die Fragen ändern sich:

  • Wie strukturiere ich Build- und Testprozesse?
  • Wo lohnt sich Automatisierung – und wo nicht?
  • Welche Qualitätssignale brauche ich als Product Owner?

Die Serie geht also weiter.
Aber mit einem anderen Blick:

Vom Lernprototyp zur professionellen Entwicklungsarbeit.

Lernen mit ChatGPT als Product Owner – Warum Regie, Sprecher und Fehleranalyse zusammengehören

Lernen mit ChatGPT als Product Owner – Warum Regie, Sprecher und Fehleranalyse zusammengehören

In dieser Blogserie teile ich meine Lernerfahrungen im Umgang mit ChatGPT – aus der Perspektive eines Agile Coaches und Product Owners, der KI nicht nutzt, um schneller zu liefern, sondern um besser zu denken. Die Texte entstehen dabei selbst im Dialog mit ChatGPT und sind Teil dieses Lernprozesses.

Reflexionen über Coaching, Produktdenken und KI-gestützte Entwicklung

Am sechsten Tag habe ich begonnen, etwas umzubauen, das auf den ersten Blick wie ein UI-Thema aussah.

Es ging um Text.
Aber nicht um Inhalte.

Es ging um die Frage, welche Information welche Verantwortung trägt.

Was ich an diesem Tag bewusst verändert habe

Aus Produkt- und Entwicklungssicht habe ich mich entschieden, eine bislang implizite Annahme explizit zu machen:

Systemzustand und gesprochener Text sind nicht dasselbe.

Konkret habe ich zwei Ebenen voneinander getrennt:

  • Regie: Systemstatus, Phasen, Meta-Informationen
  • Sprecher: das, was die Personas tatsächlich sagen

Bis dahin war beides technisch vorhanden, aber nicht klar voneinander abgegrenzt.

Als Product Owner war das eine bewusste Produktentscheidung:
Das System soll beobachtbar sein, ohne sich selbst zu erklären.

Darstellung eines Entwicklungsarbeitsplatzes mit klar getrennten Informationen für Regie, Sprechertexte und Fehleranalyse.
Darstellung eines Entwicklungsarbeitsplatzes mit klar getrennten Informationen für Regie, Sprechertexte und Fehleranalyse.

Warum diese Entscheidung zunächst neue Probleme erzeugt hat

Nach der Trennung wurde etwas sichtbar, das vorher verdeckt war.

Texte erschienen an unerwarteten Stellen.
Einige Informationen überlagerten sich.
Manche Zustände waren sichtbar, obwohl sie es nicht hätten sein sollen.

Das System lief.
Aber es fühlte sich inkonsistent an.

Das war kein klassischer Bug.
Es war ein Konsequenzproblem.

Das Auftauchen der Fehleranalyse

Erst durch die bewusste Trennung von Regie und Sprecher wurde klar, wo das eigentliche Problem lag:

  • UI-Elemente hatten mehrere Verantwortungen gleichzeitig
  • Systemwissen wurde ungefiltert sichtbar gemacht
  • Fehler ließen sich nicht isolieren, weil Zuständigkeiten vermischt waren

Die Fehleranalyse war nicht der Startpunkt dieses Tages.
Sie war das Ergebnis einer vorherigen Designentscheidung.

Wie ChatGPT bei der Fehleranalyse geholfen hat

ChatGPT hat mir an diesem Tag keinen Code korrigiert.

Die Hilfe lag an einer anderen Stelle:
bei der sprachlichen Präzisierung des Problems.

Statt „Warum ist der Text falsch platziert?“ habe ich Fragen formuliert wie:

  • Welche Verantwortung hat dieses UI-Element?
  • Für wen ist diese Information gedacht?
  • Warum fühlt sich diese Anzeige erklärend an?

Diese Fragen haben mir geholfen, Symptome von Ursachen zu trennen.

ChatGPT war hier kein Problemlöser,
sondern ein Sparringspartner für sauberes Denken.

Was ich daraus als Product Owner gelernt habe

Ich habe an diesem Tag sehr konkret gelernt:

Fehleranalyse ist Teil von Produktarbeit, nicht nur Teil von Entwicklung.

Erst wenn Zuständigkeiten klar sind,
werden Fehler sichtbar.
Und erst dann werden sie lösbar.

Die Trennung von Regie und Sprecher war keine UI-Verbesserung.

Sie war eine Voraussetzung dafür, überhaupt sinnvoll über Fehler sprechen zu können.

Eine Einladung an Dich

Wenn du Systeme, Produkte oder Oberflächen gestaltest:

Wo versuchst du Fehler zu beheben,
ohne vorher Verantwortungen zu klären?

Und wo könnte eine saubere Trennung erst ermöglichen,
dass Probleme überhaupt sichtbar werden?

Am nächsten Tag habe ich begonnen, das Ende bewusst als eigenen Reflexionsraum zu gestalten.


Serien-Abspann: Dieser Beitrag ist Teil einer fortlaufenden Blogserie, in der ich meine Lernerfahrungen im Umgang mit ChatGPT dokumentiere. Die Texte entstehen im Dialog mit ChatGPT und spiegeln meinen aktuellen Denkstand als Agile Coach und Product Owner wider – nicht fertige Antworten, sondern bewusst geteilte Zwischenschritte.

Lernen mit ChatGPT als Product Owner – Warum Dialoge, Sprache und Grenzen zusammengehören

Lernen mit ChatGPT als Product Owner – Warum Dialoge, Sprache und Grenzen zusammengehören

In dieser Blogserie teile ich meine Lernerfahrungen im Umgang mit ChatGPT – aus der Perspektive eines Agile Coaches und Product Owners, der KI nicht nutzt, um schneller zu liefern, sondern um besser zu denken. Die Texte entstehen dabei selbst im Dialog mit ChatGPT und sind Teil dieses Lernprozesses.

Reflexionen über Coaching, Produktdenken und KI-gestützte Entwicklung

Am fünften Tag habe ich begonnen, dem System eine Stimme zu geben.
Nicht im Sinne von Interaktion,
sondern im Sinne von Text.

Dialoge wurden konkret.
Und damit auch viele neue Entscheidungen.

Was an diesem Tag entstanden ist

Technisch betrachtet habe ich an diesem Tag weniger Logik gebaut,
sondern Inhalte strukturiert.

  • erste Dialogtexte, generiert mit ChatGPT
  • klare Trennung von Dialoginhalt und Ablaufsteuerung
  • eine einfache Struktur für mehrere Sprachen

Der entscheidende Punkt war dabei:
Dialoge sind Daten, keine Intelligenz.

Darstellung eines Entwicklungsarbeitsplatzes mit Textinhalten als Datenbasis für Dialoge und Internationalisierung.
Darstellung eines Entwicklungsarbeitsplatzes mit Textinhalten als Datenbasis für Dialoge und Internationalisierung.

ChatGPT als Textlieferant, nicht als Erzähler

ChatGPT hätte problemlos komplexere Dialoge erzeugen können.
Variabler.
Situativer.
Reaktiver.

Genau das wollte ich nicht.

Als Product Owner habe ich an diesem Tag gelernt:
Nicht alles, was möglich ist, ist hilfreich.

Die Dialoge sollten klar sein.
Wiederholbar.
Vorhersehbar.

Internationalisierung als Strukturentscheidung

Parallel zu den Dialogen habe ich eine zweite Sprache eingeführt.
Nicht, weil es nötig war,
sondern weil es strukturell sinnvoll war.

Internationalisierung ist kein Feature.
Sie ist eine Frage der Architektur.

Ich habe mich bewusst dagegen entschieden:

  • während des Ablaufs die Sprache zu wechseln
  • Dialoge dynamisch zu übersetzen
  • Komplexität durch Komfort zu rechtfertigen

Die Sprache wird festgelegt.
Dann läuft das System.

Vereinfachung als Produktverantwortung

Dieser Tag war ein gutes Beispiel dafür,
wie schnell Systeme unnötig komplex werden.

Jede zusätzliche Option hätte sich plausibel anfühlen können.
Und genau darin liegt die Gefahr.

Als Product Owner habe ich gelernt:
Vereinfachung ist keine technische Einschränkung.
Sie ist eine bewusste Entscheidung.

Was ich über Lernen mit ChatGPT gelernt habe

ChatGPT war an diesem Tag sehr effizient.
Texte waren schnell da.

Der eigentliche Lernprozess lag aber nicht im Schreiben,
sondern im Weglassen.

Ich habe gemerkt:
KI hilft mir hier nicht durch Kreativität,
sondern durch die Möglichkeit, Optionen sichtbar zu machen –
und mich dann bewusst dagegen zu entscheiden.

Grenzen machen Systeme verständlich

Am Ende des Tages war das System weniger flexibel als möglich.
Aber deutlich klarer als zuvor.

Die Dialoge sagen, was sie sagen sollen.
In der gewählten Sprache.
Zur richtigen Zeit.

Mehr nicht.
Und genau das ist ausreichend.

Eine Einladung an Dich

Wenn du mit KI Texte, Inhalte oder Dialoge erzeugst:
Wo lässt du Optionen bewusst offen?

Und wo setzt du Grenzen,
damit dein System verständlich bleibt?

Am nächsten Tag habe ich begonnen, Regie und Sprecher konsequent zu trennen.
Und damit eine weitere Grenze eingezogen.


Serien-Abspann: Dieser Beitrag ist Teil einer fortlaufenden Blogserie, in der ich meine Lernerfahrungen im Umgang mit ChatGPT dokumentiere. Die Texte entstehen im Dialog mit ChatGPT und spiegeln meinen aktuellen Denkstand als Agile Coach und Product Owner wider – nicht fertige Antworten, sondern bewusst geteilte Zwischenschritte.

Lernen mit ChatGPT als Product Owner – Warum Zeitlogik wichtiger war als Dialogsteuerung

Lernen mit ChatGPT als Product Owner – Warum Zeitlogik wichtiger war als Dialogsteuerung

In dieser Blogserie teile ich meine Lernerfahrungen im Umgang mit ChatGPT – aus der Perspektive eines Agile Coaches und Product Owners, der KI nicht nutzt, um schneller zu liefern, sondern um besser zu denken. Die Texte entstehen dabei selbst im Dialog mit ChatGPT und sind Teil dieses Lernprozesses.

Reflexionen über Coaching, Produktdenken und KI-gestützte Entwicklung

Am vierten Tag habe ich begonnen, das Daily Scrum nicht mehr als Gespräch zu betrachten, sondern als System mit einem zeitlichen Ablauf.

Das war ein bewusster Perspektivwechsel.
Und ein technischer.

Was ich an diesem Tag gebaut habe

Aus Entwicklungssicht ging es an diesem Tag nicht um Inhalte,
sondern um Struktur unter Zeitdruck.

  • eine klar definierte Abfolge von Phasen
  • eine explizite Zeitlogik
  • einen zentralen Controller, der den Ablauf steuert

Dialoge waren nachgeordnet.
Wichtig war zunächst nur eines:
Was passiert wann – und was passiert dann nicht mehr?

Arbeitsplatz mit Laptop, Uhr und schematischem Ablaufdiagramm, das Zeitlogik und Phasensteuerung als Teil des Systemdesigns zeigt.

Warum Zeit eine Produktentscheidung ist

Als Product Owner habe ich an diesem Tag etwas sehr Konkretes gelernt:
Zeit ist kein UI-Detail.
Zeit ist Teil des Produktdesigns.

Indem ich Phasen fest definiere,
lege ich fest, welche Verhaltensmuster überhaupt sichtbar werden können.

Ein offenes System lädt zum Ausweichen ein.
Ein zeitlich begrenztes System erzeugt Druck.
Und genau dieser Druck ist der eigentliche Lernträger.

Eskalation als Systemeigenschaft

Die Eskalation war kein Sonderfall,
sondern eine logische Konsequenz des Designs.

Ich habe bewusst darauf verzichtet:

  • einzugreifen
  • zu moderieren
  • das System „klüger“ zu machen

Nicht aus Bequemlichkeit,
sondern aus einer Produktentscheidung heraus:

Das System soll Muster zeigen, nicht lösen.

Was ich technisch gelernt habe

Technisch habe ich an diesem Tag vor allem gelernt,
wie stark sich frühe Entscheidungen auswirken.

Ein zentraler Ablaufcontroller macht Dinge explizit:
Übergänge.
Zustände.
Grenzen.

Und er zwingt mich als Product Owner,
jede Ausnahme zu rechtfertigen.

Das war anstrengend.
Aber sehr klärend.

Was ChatGPT in diesem Schritt beigetragen hat

ChatGPT war an diesem Tag kein Ideengeber.
Sondern ein Korrektiv.

Immer wieder kam dieselbe Rückfrage:
Ist das hier eine Produktentscheidung – oder ein Reflex?

Diese Frage hat mir geholfen,
Zeitlogik nicht als technische Notwendigkeit,
sondern als bewusstes Designmittel zu verstehen.

Das Ende ist Teil des Systems

Ein wichtiges Detail dieses Tages war das Ende.

Das Daily endet.
Unabhängig davon, wie es gelaufen ist.

Dieses Ende ist kein Bug.
Es ist ein Feature.

Als Product Owner habe ich hier gelernt:
Nicht jedes System darf sich selbst korrigieren.

Eine Einladung an Dich

Wenn du Produkte, Prozesse oder Lernformate gestaltest:
Wo behandelst du Zeit als Rahmen –
und wo als aktives Gestaltungselement?

Und wo versuchst du, durch Flexibilität etwas zu kaschieren,
das eigentlich sichtbar werden müsste?

Am nächsten Tag habe ich begonnen, Regie und Beobachtung explizit zu trennen.
Und damit eine weitere Produktentscheidung getroffen.


Serien-Abspann: Dieser Beitrag ist Teil einer fortlaufenden Blogserie, in der ich meine Lernerfahrungen im Umgang mit ChatGPT dokumentiere. Die Texte entstehen im Dialog mit ChatGPT und spiegeln meinen aktuellen Denkstand als Agile Coach und Product Owner wider – nicht fertige Antworten, sondern bewusst geteilte Zwischenschritte.