Lernen mit ChatGPT als Product Owner – Warum Dialoge, Sprache und Grenzen zusammengehören

Lernen mit ChatGPT als Product Owner – Warum Dialoge, Sprache und Grenzen zusammengehören

In dieser Blogserie teile ich meine Lernerfahrungen im Umgang mit ChatGPT – aus der Perspektive eines Agile Coaches und Product Owners, der KI nicht nutzt, um schneller zu liefern, sondern um besser zu denken. Die Texte entstehen dabei selbst im Dialog mit ChatGPT und sind Teil dieses Lernprozesses.

Reflexionen über Coaching, Produktdenken und KI-gestützte Entwicklung

Am fünften Tag habe ich begonnen, dem System eine Stimme zu geben.
Nicht im Sinne von Interaktion,
sondern im Sinne von Text.

Dialoge wurden konkret.
Und damit auch viele neue Entscheidungen.

Was an diesem Tag entstanden ist

Technisch betrachtet habe ich an diesem Tag weniger Logik gebaut,
sondern Inhalte strukturiert.

  • erste Dialogtexte, generiert mit ChatGPT
  • klare Trennung von Dialoginhalt und Ablaufsteuerung
  • eine einfache Struktur für mehrere Sprachen

Der entscheidende Punkt war dabei:
Dialoge sind Daten, keine Intelligenz.

Darstellung eines Entwicklungsarbeitsplatzes mit Textinhalten als Datenbasis für Dialoge und Internationalisierung.
Darstellung eines Entwicklungsarbeitsplatzes mit Textinhalten als Datenbasis für Dialoge und Internationalisierung.

ChatGPT als Textlieferant, nicht als Erzähler

ChatGPT hätte problemlos komplexere Dialoge erzeugen können.
Variabler.
Situativer.
Reaktiver.

Genau das wollte ich nicht.

Als Product Owner habe ich an diesem Tag gelernt:
Nicht alles, was möglich ist, ist hilfreich.

Die Dialoge sollten klar sein.
Wiederholbar.
Vorhersehbar.

Internationalisierung als Strukturentscheidung

Parallel zu den Dialogen habe ich eine zweite Sprache eingeführt.
Nicht, weil es nötig war,
sondern weil es strukturell sinnvoll war.

Internationalisierung ist kein Feature.
Sie ist eine Frage der Architektur.

Ich habe mich bewusst dagegen entschieden:

  • während des Ablaufs die Sprache zu wechseln
  • Dialoge dynamisch zu übersetzen
  • Komplexität durch Komfort zu rechtfertigen

Die Sprache wird festgelegt.
Dann läuft das System.

Vereinfachung als Produktverantwortung

Dieser Tag war ein gutes Beispiel dafür,
wie schnell Systeme unnötig komplex werden.

Jede zusätzliche Option hätte sich plausibel anfühlen können.
Und genau darin liegt die Gefahr.

Als Product Owner habe ich gelernt:
Vereinfachung ist keine technische Einschränkung.
Sie ist eine bewusste Entscheidung.

Was ich über Lernen mit ChatGPT gelernt habe

ChatGPT war an diesem Tag sehr effizient.
Texte waren schnell da.

Der eigentliche Lernprozess lag aber nicht im Schreiben,
sondern im Weglassen.

Ich habe gemerkt:
KI hilft mir hier nicht durch Kreativität,
sondern durch die Möglichkeit, Optionen sichtbar zu machen –
und mich dann bewusst dagegen zu entscheiden.

Grenzen machen Systeme verständlich

Am Ende des Tages war das System weniger flexibel als möglich.
Aber deutlich klarer als zuvor.

Die Dialoge sagen, was sie sagen sollen.
In der gewählten Sprache.
Zur richtigen Zeit.

Mehr nicht.
Und genau das ist ausreichend.

Eine Einladung an Dich

Wenn du mit KI Texte, Inhalte oder Dialoge erzeugst:
Wo lässt du Optionen bewusst offen?

Und wo setzt du Grenzen,
damit dein System verständlich bleibt?

Am nächsten Tag habe ich begonnen, Regie und Sprecher konsequent zu trennen.
Und damit eine weitere Grenze eingezogen.


Serien-Abspann: Dieser Beitrag ist Teil einer fortlaufenden Blogserie, in der ich meine Lernerfahrungen im Umgang mit ChatGPT dokumentiere. Die Texte entstehen im Dialog mit ChatGPT und spiegeln meinen aktuellen Denkstand als Agile Coach und Product Owner wider – nicht fertige Antworten, sondern bewusst geteilte Zwischenschritte.