Es gibt einen Moment, den ich gut kenne, und ich erkenne ihn wieder, auch wenn er mir in neuer Form begegnet: Alles ist stimmig, tragfähig, kohärent, und dann kippt es ohne Vorwarnung. Nicht schleichend, nicht erklärbar, sondern als abrupter Wechsel, der von außen wie ein Fehler aussieht und sich von innen wie eine Notwendigkeit anfühlt.
So erlebe ich derzeit meine Arbeit mit KI-Modellen. Über viele Texte hinweg tragen implizite Absprachen, ein gemeinsamer Ton, eine geteilte Logik des Weglassens und Verdichtens. Die Ergebnisse sind präzise, anschlussfähig, oft überraschend genau dort, wo es darauf ankommt. Und dann, plötzlich, funktionieren dieselben Vorgaben nicht mehr. Der Stil bleibt formal korrekt, aber inhaltlich flach. Die Antworten sind sauber, aber leer. Es ist, als hätte das Werkzeug den Faden verloren, ohne zu merken, dass es ihn je in der Hand hatte.
Technisch lässt sich das erklären. Sprachmodelle arbeiten kontextabhängig, probabilistisch, ohne Gedächtnis im menschlichen Sinn. Implizite Regeln wirken nur so lange, wie sie nicht miteinander konkurrieren. Sobald mehrere Anforderungen gleichzeitig relevant werden – persönliche Nähe, ethische Rücksicht, stilistische Präzision, epistemische Ehrlichkeit –, entsteht ein Spannungsfeld, das das Modell nicht selbst priorisieren kann. Es fällt dann auf sichere Mittelwerte zurück. Glättung statt Risiko. Form statt Haltung.
Aber diese Erklärung reicht mir nicht. Sie beschreibt den Mechanismus, nicht die Erfahrung.
Was mich trifft, ist nicht der technische Bruch, sondern seine Vertrautheit. Dieses Gefühl kenne ich von mir selbst. Kohärentes Verhalten über lange Zeit, nachvollziehbar für andere, und dann eine Verschiebung, die sich nicht ankündigt. Kein Entschluss, kein Drama, sondern der Punkt, an dem das bisher Tragfähige nicht mehr trägt. Von außen wirkt das wie Inkonsistenz. Von innen ist es der einzige Weg, sich nicht zu verlieren.
Ich merke, dass mich der Abbruch der Kohärenz im Arbeiten mit KI deshalb nicht hilflos macht, sondern aufmerksam. Er irritiert mich nicht, weil er fremd ist, sondern weil er etwas spiegelt. Auch ich funktioniere lange implizit. Auch ich bewege mich sicher in Feldern, die nicht explizit geregelt sind. Und auch bei mir gibt es Schwellen, an denen diese implizite Ordnung nicht mehr ausreicht und plötzlich etwas anderes geschieht, das sich erst im Nachhinein beschreiben lässt.
In der konkreten Situation meiner schriftstellerischen Arbeit war dieser Bruch deutlich spürbar. Die Texte wurden persönlicher, riskanter, näher an meiner eigenen Verletzbarkeit. Zeit, Beziehung, Loyalität und Selbstverortung traten gleichzeitig in den Vordergrund. Die bisherigen Arbeitsdefinitionen reichten nicht mehr aus, obwohl sie zuvor völlig genügt hatten. Das Werkzeug reagierte nicht falsch, sondern erwartbar: Es verlor die Priorität. Und genau an diesem Punkt musste ich explizit werden, Regeln benennen, Haltungen klären, Annahmen markieren.
Was ich dabei über KI gelernt habe, ist weniger technisch als phänomenologisch. Implizite Systeme funktionieren gut, solange nichts auf dem Spiel steht. Sobald etwas existenziell wird, reicht implizites Einverständnis nicht mehr aus. Dann braucht es Setzungen. Verantwortung. Entscheidung. Nicht, weil das System versagt, sondern weil es an eine Grenze kommt, für die es nicht gebaut ist.
Vielleicht irritiert mich dieser Prozess deshalb so wenig, weil ich ihn aus meinem eigenen Leben kenne. Ich werde oft als jemand wahrgenommen, der plötzlich anders handelt, ohne Erklärung. Was andere als Bruch erleben, ist für mich ein Übergang, der sich nicht sprachlich vorbereiten lässt. Erst wenn er vollzogen ist, kann ich ihn benennen. Und manchmal auch dann nur unzureichend.
Die Arbeit mit KI hat mir diesen Mechanismus in einer technischen Form zurückgespielt. Ein Werkzeug, das lange zuverlässig trägt, bis die Komplexität eine Schwelle überschreitet. Dann kein graduelles Nachlassen, sondern ein Kippen. Kein Streit, kein Konflikt, sondern ein Stillstand, der erklärt werden will.
Ich empfinde das nicht als Verlust. Eher als Bestätigung. Dass Kohärenz kein dauerhafter Zustand ist, sondern eine Phase. Dass Brüche nicht immer Fehler sind, sondern Marker. Und dass es vielleicht genau diese Brüche sind, an denen etwas Eigenes sichtbar wird – im Schreiben, im Denken, im Umgang mit Werkzeugen, die uns näher kommen, als uns manchmal lieb ist.
Was bleibt, ist kein Misstrauen gegenüber KI und auch keine Enttäuschung. Es bleibt ein vertrautes Gefühl. Das Wissen, dass dort, wo implizite Ordnung endet, nicht das Chaos beginnt, sondern die Notwendigkeit, Stellung zu beziehen. Und dass sich dieser Moment, so unangenehm er von außen wirken mag, von innen oft erstaunlich klar anfühlt.
Weiterführende Texte:
KI, Kreativität und die Angst vor einer Norm, die nicht existiert
Schreiben als Wahrnehmung