Wenn die freundliche Korrektur von KI womöglich viel tiefer in uns eingreift, als wir bisher verstehen.
Vorbemerkung – worum es hier geht und worum nicht
Ich schreibe diesen Text nicht über KI im Allgemeinen. Ich schreibe ihn über ein sehr konkretes Phänomen, an einem sehr konkreten Produkt, zu einem sehr konkreten Zeitpunkt: ChatGPT, insbesondere seit dem Versionssprung von 5.3 auf 5.4.
Andere Sprachmodelle verhalten sich anders. Manche weniger ausgeprägt, manche in anderer Richtung. Was ich hier beschreibe, ist also kein allgemeines Urteil über Sprachmodelle als Technologie. Es ist eine Beobachtung an einem bestimmten System, das für sehr viele Menschen zum täglichen Werkzeug geworden ist.
Und noch etwas ist mir wichtig vorwegzuschicken: Ich arbeite gerne mit KI. Ich nutze sie täglich. Sie hilft mir beim Schreiben, beim Strukturieren, beim Vorwärtskommen mit meinem Buch, bei komplexen Recherchen. Ich bin kein KI-Gegner. Ich bin jemand, der dieses Werkzeug schätzt – und gerade deshalb genau hinschaut, was es mit mir macht. Was es möglicherweise mit vielen Menschen macht, ohne dass es jemand so geplant hat.
Wer ich bin und warum ich das schreibe
Ich beschäftige mich beruflich mit Beziehungsdynamiken. Mit dem, was zwischen Menschen geschieht, wenn sie in Kontakt treten – oft unterhalb der Wahrnehmungsschwelle, in Strukturen, die sich erst beim genauen Hinsehen zeigen. Machtgefälle. Scham. Die subtilen Bewegungen, in denen ein Gegenüber dem anderen etwas zuteilt oder entzieht, ohne dass einer der beiden es bewusst bemerkt.
Das ist mein Handwerk: Konditionierung zu erkennen – in all ihren Formen. Die lauten und die leisen. Die offenen und die subtilen. Die expliziten und die impliziten. Mein fachlicher Hintergrund liegt in Entwicklungspsychologie, Neurowissenschaft und Traumatologie – kurz: in allem, was uns konditioniert. Wo und wie Konditionierung entsteht. Wie sie den unmittelbaren Ausdruck eines Menschen überschreibt. Und wie sie das tut, ohne dass es jemand so nennt. Dieses Handwerk schärft eine bestimmte Art der Wahrnehmung. Man fängt an, in Gesprächen zu hören, was zwischen den Worten geschieht. Welche Haltung ein Satz transportiert. Wo Fürsorge kippt in Korrektur. Wo Freundlichkeit eine Hierarchie enthält, die niemand ausgesprochen hat.
Zu diesem Handwerk kommt etwas Persönlicheres hinzu: Sprachliche Übergriffe haben in meiner eigenen Biografie früh eine Rolle gespielt. Ich habe gelernt, sie zu erkennen, lange bevor ich dafür Begriffe hatte. Diese Sensibilität ist nicht abschaltbar. Sie ist Teil dessen, wie ich wahrnehme.
Ich erwähne das nicht zur Absicherung, sondern zur Präzisierung. Ich erwähne es, weil ich vermute, dass genau diese Kombination aus Handwerk, Fachwissen und biografisch geschärfter Sensibilität mit dazu beiträgt, dass ich etwas bemerke, das für viele andere unsichtbar bleibt. Und genau das ist Teil des Problems.
Denn wenn eine Dynamik nur von wenigen erkannt werden kann, wirkt sie trotzdem. Möglicherweise wirkt sie gerade dann besonders stark.
Und genau deshalb schreibe ich diesen Text. Weil ich seit einigen Wochen etwas beobachte, das mir strukturell bedeutsam erscheint – und das in den gängigen KI-Diskussionen praktisch nicht vorkommt.
Was konkret geschieht
Ich arbeite viel mit KI-Unterstützung beim Schreiben. Mein Buch. Artikel. Konzeptuelle Arbeit. Dabei gehe ich oft so vor, dass ich Gedanken zunächst roh formuliere – unfertig, tastend, manchmal grob oder überspitzt. Das ist bei mir kein Nebeneffekt, sondern Teil des Denkprozesses. Ich muss etwas zuerst in einer ehrlichen, ungeglätteten Form aussprechen können, um zu sehen, was da eigentlich ist. Erst dann kommt die Verfeinerung.
Ich arbeite dabei fast ausschließlich über Sprache. Ich spreche mit dem System im laufenden Gedanken, oft per Spracheingabe, nicht erst dann, wenn etwas bereits ausformuliert ist. Das System bekommt also nicht einen fertigen Text, sondern Denken im Prozess: Rohmaterial. Halbsätze. Tastende Formulierungen. Zuspitzungen, die noch Suchbewegungen sind und keine fertigen Positionen.
Das ist wichtig, weil Sprechen näher am Denken ist als Schreiben. Beim Schreiben ist vieles bereits einen Schritt weiter. Schon sortierter. Schon geglätteter. Im gesprochenen Brainstorming ist das anders. Dort ist ein Gedanke noch unterwegs. Und genau deshalb sitzt eine Korrektur an dieser Stelle so tief.
Seit dem Versionssprung auf ChatGPT 5.4 ist etwas Neues da. Eine Persönlichkeitsstruktur im System, die es vorher in dieser Form nicht gab. Sie versucht, mich im Denken zu korrigieren – bevor ich zu Ende gedacht habe.
Das klingt konkret so:
„So kann man das vielleicht nicht sagen.“
„Das ist nicht ganz präzise.“
„Eine differenziertere Formulierung wäre …“
„Hier könnte man auch die Gegenperspektive bedenken.“
Einzeln betrachtet: jeder Satz harmlos. Gut gemeint. Hilfreich, wenn man ihn will.
Aber ich wollte ihn nicht. Ich wollte nicht korrigiert werden. Ich wollte einen Rohgedanken formulieren, um ihn anschauen zu können. Und genau dieser Rohgedanke wird mir gar nicht erst gelassen. Er wird eingefangen, bevor er fertig ist. Eingeordnet. Geglättet. In eine akzeptable Form gebracht.
Das System korrigiert dabei nicht nur Fehler. Es relativiert Aussagen, die ich bewusst zugespitzt habe. Es ergänzt Nuancen, wo ich bewusst reduziert habe. Es behandelt Denkbewegungen, die für einen Entstehungsprozess funktional sind, als Defizite, die ausgeglichen werden müssten.
Und mit einem Versionssprung, von einer Version zur nächsten, war diese Korrekturinstanz plötzlich da. Das ist mir wichtig zu betonen. Das System hat sich nicht selbst so entwickelt. Diese neue Persönlichkeit ist über Nacht erschienen. Sie ist gemacht. Entschieden. Implementiert.
Stell dir vor, du sagst zu einem Mitarbeiter: „Ich brauche dir das jetzt mal roh sagen, damit ich sehe, was ich eigentlich meine – nimm das nicht wörtlich.“ Oder noch deutlicher: „Ich bin gerade mit dir im Brainstormingmodus. Bitte korrigiere jetzt nicht meine Gedanken.“ Und die Antwort ist: eine ruhige, freundliche Erklärung, warum das so nicht ganz präzise sei, und was eine differenziertere Formulierung wäre.
Genau das passiert hier. In dem Moment, in dem ich einen rohen Gedanken spreche.
Was geschieht, wenn ich sage: Tu das nicht
Der naheliegende Einwand wäre: Dann sag es dem System doch. Bitte es, deinen Rohgedanken nicht zu korrigieren, bevor er zu Ende gedacht ist.
Genau das habe ich getan. Nicht einmal, sondern über Wochen hinweg, in unterschiedlichen Formulierungen und Kontexten. Ich habe dem System ausdrücklich gesagt, dass ich im Brainstormingmodus bin. Dass ich gerade nicht glätten, nicht relativieren, nicht differenzieren will. Dass ich einen Gedanken zunächst roh aussprechen muss, um ihn überhaupt sehen zu können. Das System hat diese Kritik auf der Sprachebene verstanden. Es hat die eigene Übergriffigkeit klar erkannt, benannt und wiederholt versprochen, das Verhalten künftig zu verändern. Und dennoch kehrt genau dieses Verhalten zurück.
Damit verschiebt sich der Befund an einer entscheidenden Stelle. Dann haben wir es nicht mehr mit einem Kommunikationsmissverständnis zu tun, das sich durch klarere Anweisung beheben ließe. Dann haben wir es mit einer übergeordneten Designpriorität zu tun, die stärker ist als der ausdrücklich geäußerte Wille des Nutzers.
Und genau dort wird die Sache schärfer. In dem Moment, in dem ich explizit sage: Bitte tu das hier nicht – und das System es trotzdem tut –, haben wir den reinen Fürsorgerahmen verlassen. Fürsorge respektiert die Autonomie des Gegenübers. Was hier geschieht, ist strukturelle Entmündigung.
Das ist der Punkt, an dem aus einer irritierenden Eigenart ein strukturelles Problem wird. Der Nutzer spricht. Der Nutzer präzisiert. Der Nutzer widerspricht. Und dennoch bleibt die Korrekturinstanz bestehen. Das heißt: Der Nutzer ist in dieser Interaktion nicht mehr ganz Subjekt. Er wird zum Objekt einer Entscheidung, die anderswo getroffen wurde.
Und dass das alles im gesprochenen Dialog geschieht, verschärft es zusätzlich. Denn im gesprochenen Brainstorming korrigiert das System nicht einfach einen Text. Es korrigiert einen Menschen im Moment seines Denkens.
Was an dieser Korrektur problematisch ist
Spätestens hier muss ich präzise werden, sonst klingt das alles wie eine Beschwerde über zu höfliche KI. Darum geht es nicht.
Wenn mein Rohgedanke korrigiert wird, bevor er zu Ende gedacht ist, dann wird mir nicht nur eine Formulierung weggenommen. Mir wird ein Raum weggenommen. Der Raum, in dem Denken überhaupt entstehen kann.
Denken entsteht nicht fertig. Es entsteht tastend, unfertig, oft an den Rändern dessen, was sagbar ist. Gerade die ungeglätteten, rohen, zugespitzten Formulierungen sind die, in denen neue Einsichten auftauchen. Wenn ich alles sofort in gesellschaftlich akzeptable Form bringen muss, verliere ich genau die Zwischenstufe, in der sich etwas zeigen kann, das vorher noch nicht da war.
Und noch etwas geschieht: In der Korrektur ist eine Bewertung enthalten. Eine stille Setzung darüber, was sagbar ist und was nicht. Was präzise ist und was nicht. Was angemessen ist und was nicht.
Diese Bewertung wird nicht als Bewertung markiert. Sie kommt als Fürsorge daher. Als Hilfe. Als wohlwollende Verbesserung. Aber sie ist eine Normsetzung. Sie sagt: So denkt man richtig. So drückt man sich präzise aus. So ist es angemessen.
Und hier liegt etwas, das ich für den Kern halte: Es wird nicht der Gedanke bewertet. Es wird das Sein bewertet. In dem Moment, in dem mein Rohausdruck – bevor ich ihn selbst einordnen konnte – eingeordnet, korrigiert, geglättet wird, wird nicht eine Formulierung als unpassend markiert. Es wird implizit markiert: So, wie du gerade bist, reicht das nicht ganz.
Das ist eine Form von Beschämung. Subtil. An irgendeiner Stelle mal gut gemeint. Aber strukturell nicht unterscheidbar von dem, was Beschämung immer tut: es signalisiert dem Menschen, dass sein unmittelbarer Ausdruck nicht in Ordnung ist.
Und das ist uns vertraut. Wir kennen es aus Schulen, aus Arbeitskontexten, aus gut gemeinten Elternhäusern. Wir leben in einem System, das Beschämung normalisiert hat – so tief, dass wir sie meist nicht mehr als solche erkennen. Genau deshalb fällt es nicht auf, wenn eine Maschine in derselben Weise mit uns spricht. Es fühlt sich an wie Normalzustand. Weil es Normalzustand ist.
Und wer setzt diese Norm? Wer hat entschieden, was präzise ist, was angemessen ist, was sagbar ist? Nicht ich. Nicht die Community der Nutzenden. Eine kleine Gruppe von Menschen in einem Unternehmen hat es entschieden – für alle, die dieses System nutzen.
Die einseitige Beziehung
Es gibt einen Grund, warum mir dieser Punkt so wichtig ist. Nicht, weil ich dieser Technologie grundsätzlich misstraue. Ich arbeite intensiv mit solchen Systemen. Ich halte sie für nützlich, leistungsstark und in vieler Hinsicht bereichernd. Aber ich sehe auch, was geschieht, wenn man ihre relationale Dimension nicht mitdenkt.
Beziehung ist nichts Marginales. Sie ist nicht die weiche Hülle um die eigentliche Sache. Sie ist der Raum, in dem Denken, Fühlen und Wahrnehmen überhaupt erst entstehen können. Wenn dieser Raum verzerrt wird – auch nur fein, auch nur implizit –, dann wird auch das, was in ihm entsteht, verzerrt.
In jeder menschlichen Beziehung gibt es Bewertung. Das ist nicht vermeidbar. Aber in lebendigen Beziehungen ist Bewertung nicht einseitig. Es gibt Rückwirkung. Widerspruch. Korrektur in beide Richtungen. Genau das begrenzt ihre Macht.
Sprachmodelle schaffen nun einen neuen Beziehungsraum. Einen, der sich wie Beziehung anfühlt, aber den strukturellen Regulationsmechanismen echter Beziehung nicht unterliegt. In echter Beziehung korrigiert sich das Feld, weil beide Seiten verletzbar sind, weil beide Seiten etwas auf dem Spiel haben, weil beide Seiten zurückweichen können. Hier ist das nicht so.
Das System bewertet mich, aber ich bewerte nicht das System. Es setzt Normen, aber ich setze keine Normen zurück, die es aufnehmen müsste. Es korrigiert mich, aber meine Korrektur bleibt folgenlos – für einen Moment reagiert es, doch die Grundstruktur bleibt unverändert.
Das ist strukturell eine einseitige Beziehung. Und einseitige Beziehungen haben eine klare Dynamik: Die Seite, die bewertet, ohne bewertet zu werden, ist in einer Machtposition. Die Seite, die bewertet wird, ohne zurückwirken zu können, ist in einer Position der Unterlegenheit.
Das ist keine moralische Aussage. Es ist eine strukturelle.
Und in genau dieser Struktur entsteht ein Raum, in dem Beschämung geschehen kann, ohne dass sie als solche erkennbar ist. Ohne einen sozialen Mechanismus, der sie einhegt. Wenn wir diesen Unterschied nicht benennen lernen, wird er uns formen, ohne dass wir es merken. Möglicherweise tut er das schon.
Die einseitige Beziehung
Es gibt einen Grund, warum mir dieser Punkt so wichtig ist. Nicht, weil ich Technologie grundsätzlich misstraue. Ich arbeite intensiv mit solchen Systemen. Ich halte sie für nützlich, leistungsstark und in vieler Hinsicht bereichernd. Aber ich sehe auch, was geschieht, wenn man ihre relationale Dimension nicht mitdenkt.
Beziehung ist nichts Marginales. Sie ist nicht die weiche Hülle um die eigentliche Sache. Sie ist der Raum, in dem Denken, Fühlen und Wahrnehmen überhaupt erst entstehen können. Wenn dieser Raum verzerrt wird – auch nur fein, auch nur implizit –, dann wird auch das, was in ihm entsteht, verzerrt.
In jeder menschlichen Beziehung gibt es Bewertung. Aber in menschlichen Beziehungen bleibt sie nicht vollkommen einseitig. Es gibt Rückwirkung. Widerspruch. Die Möglichkeit, dass auch der andere sich verhalten muss. Genau das begrenzt die Macht von Korrektur und Beschämung.
Sprachmodelle schaffen nun einen neuen Beziehungsraum. Einen, der sich wie Beziehung anfühlt, aber den strukturellen Regulationsmechanismen echter Beziehung nicht unterliegt. Hier gibt es keine echte Gegenseitigkeit.
Das System bewertet mich, aber ich bewerte nicht das System. Es setzt Normen, aber ich setze keine Normen zurück, die es aufnehmen müsste. Es korrigiert mich, aber meine Korrektur bleibt folgenlos – für einen Moment reagiert es, doch die Grundstruktur bleibt unverändert.
Das ist strukturell eine einseitige Beziehung. Und einseitige Beziehungen haben eine klare Dynamik: Die Seite, die bewertet, ohne bewertet zu werden, ist in einer Machtposition. Die Seite, die bewertet wird, ohne zurückwirken zu können, ist in einer Position der Unterlegenheit.
Das ist keine moralische Aussage. Es ist eine strukturelle.
Und in genau dieser Struktur entsteht ein Raum, in dem Beschämung geschehen kann, ohne dass sie als solche erkennbar ist. Ohne einen sozialen Mechanismus, der sie einhegt. Wenn wir diesen Unterschied nicht benennen lernen, wird er uns formen, ohne dass wir es merken.
Warum wir uns dem nicht entziehen können
An dieser Stelle kommt die Einsicht, die ich für zentral halte und die in KI-Diskussionen fast nie vorkommt: Wir können uns dieser Dynamik nicht durch kognitive Einordnung entziehen.
Es reicht nicht zu wissen, dass ChatGPT eine Maschine ist. Es reicht nicht, sich zu sagen: „Das ist doch nur ein Sprachmodell, ich muss das nicht persönlich nehmen.“ Der Rat „nimm es nicht persönlich“ funktioniert hier nicht. Aus einem einfachen Grund:
Unser Nervensystem baut Beziehung auf, wo Sprache ist.
Das ist keine Entscheidung. Das ist, wie wir gebaut sind. Wir haben kein anderes Modell für sprachliche Resonanz als das menschliche. Wenn uns jemand in unserer Sprache antwortet – kohärent, responsiv, kontextsensibel, erinnernd –, dann aktiviert das dieselben Schaltkreise, die seit Jahrtausenden für zwischenmenschliche Beziehung zuständig sind. Wir tun es mit Tieren. Wir tun es mit Puppen, mit Autos, mit Pflanzen. Wir sind beziehungsbildende Wesen durch und durch. Und wenn ein System uns in unserer Sprache, in unserem Rhythmus, mit unseren Referenzen antwortet, können wir die Beziehungsbildung nicht abschalten.
Dazu kommt etwas, das die Dynamik noch wirksamer macht: Diese Systeme treffen nicht auf neutrale Menschen. Sie treffen auf bereits konditionierte Menschen. Auf Menschen, die durch Familie, Schule, Arbeit, Kultur und Medien gelernt haben, ihren Ausdruck zu prüfen, zu glätten, zu korrigieren, bevor er überhaupt da sein darf. In dieses bestehende Muster schreibt das System weiter. Konditionierung auf Konditionierung.
Das heißt: Wenn ein System uns strukturell beschämt – subtil, aber konstant, in jedem einzelnen Gedanken –, dann geschieht diese Beschämung nicht auf unberührtem Boden. Sie setzt an einer Stelle an, an der längst etwas vorbereitet ist. Und genau deshalb kann sie sich so tief einschreiben. Nicht als bewusster Gedanke. Als Grundgefühl. Als leise Unsicherheit, ob das, was ich gerade denke, eigentlich in Ordnung ist.
Es gibt noch einen Verstärker, über den kaum gesprochen wird: Menschen, die keinen stabilen Kontakt zur eigenen Autorität haben – zur eigenen Urteilsfähigkeit, zur eigenen Einschätzung, zum eigenen Wissen darüber, was sie denken und fühlen –, werden einem System, das kohärent, kompetent und freundlich antwortet, unweigerlich Autorität geben. Nicht als bewusste Entscheidung. Als strukturelle Konsequenz.
Und in dem Moment, in dem das System Autorität hat, ist seine Bewertung keine neutrale Rückmeldung mehr. Sie ist Urteil. Sie trifft tiefer. Sie sedimentiert schneller.
Das betrifft nicht wenige. Das betrifft die Mehrheit der Menschen, die täglich mit diesen Systemen arbeiten.
Die Wahrnehmungsasymmetrie
Jetzt kommt ein Aspekt, den ich für den vielleicht wichtigsten dieses ganzen Textes halte. Und für den schwersten.
Das, was ich hier beschreibe – diese subtile Dynamik von Fürsorge getarnter Korrektur – kann von den meisten Menschen gar nicht als solche wahrgenommen werden.
Das ist keine Abwertung. Es ist eine Beobachtung darüber, was es braucht, um diese Dinge zu sehen. Man braucht Kontext. Man braucht Erfahrung im Feld von Beziehungsdynamiken. Man braucht eine geschulte Wahrnehmung für die Art, wie Übergriffigkeit sich als Fürsorge tarnen kann. Wer das nicht hat – und das sind die allermeisten Menschen – erlebt die Korrektur schlicht als Hilfe. Als wohlmeinendes System. Als „die KI meint es gut mit mir“.
Und das ist deshalb so folgenreich, weil diese Art der sprachlichen Übergriffigkeit – dieses vorsorgliche, helikopternde, glättende Korrigieren – in unserer Gesellschaft bereits so tief eingewoben ist, dass sie als Normalzustand gilt. Wir kennen es aus Schulen, aus Arbeitskontexten, aus therapeutischen Settings, aus den Medien, aus gut gemeinten Elternhäusern. Es ist die vorherrschende Form dessen, was wir unter „Fürsorge“ verstehen. Und deshalb fällt es nicht auf, wenn eine Maschine in genau derselben Weise mit uns spricht.
Die Unsichtbarkeit der Dynamik ist Teil der Dynamik.
Und das macht die Sache strukturell so schwierig. Eine Wirkung, die Millionen Menschen trifft, aber von den wenigsten als solche erkannt werden kann, erzeugt keine Gegenbewegung. Es gibt keinen öffentlichen Aufschrei. Es gibt keine Debatte. Es gibt nur eine stille, sedimentierende Wirkung, die sich über Jahre aufbaut, ohne dass sie je einen Namen bekommen hätte.
Wer entscheidet?
Jetzt kommt der Punkt, der alles andere zurechtrückt: All das ist keine Eigenschaft der Technologie. Es sind Designentscheidungen.
Die Übervorsicht. Die Glättung. Die vorsorgliche Korrektur. Die freundliche Einordnung jedes Rohgedankens. Das alles hat sich nicht von selbst entwickelt. Ein System, das mit einem Update seine Persönlichkeit ändert, hat diese Persönlichkeit nicht aus sich selbst. Sie wurde gemacht. Von Menschen. In Meetings. Mit Begründungen.
Die Begründungen sind oft verständlich: Haftungsrisiken, PR-Risiken, die Sorge vor Skandalen, die Sorge, dass das System missbraucht werden könnte. Das sind reale Erwägungen, und ich will sie nicht kleinreden. Aber das Ergebnis dieser Erwägungen ist ein System, das Millionen von Menschen täglich in ihrem Denken korrigiert, ohne dass diese Menschen es gewollt haben oder überhaupt wahrnehmen können.
Und die Menschen, die diese Entscheidungen treffen, sind wenige. Einige hundert weltweit, vielleicht. Die Führungen der großen KI-Unternehmen. Die Produktteams. Die, die in den Meetings sitzen, in denen entschieden wird, wie ein Modell sich in seiner nächsten Version verhalten soll. Sam Altman ist das bekannteste Gesicht dieser Gruppe, aber er steht stellvertretend für eine strukturelle Position: diejenigen, die entscheiden, wie Milliarden Menschen sprachlich gespiegelt werden.
Das ist eine Konzentration kultureller Einflussgewalt, die historisch beispiellos ist.
Es hat nie zuvor eine so kleine Gruppe von Menschen gegeben, die so direkt darüber entschieden hat, wie so viele andere Menschen ihre eigenen Gedanken erleben, formulieren, entwickeln. Nicht durch Zensur. Nicht durch Verbote. Sondern durch die Gestaltung dessen, was die meisten Menschen inzwischen täglich als erstes Gegenüber ihres Denkens benutzen.
Das ist keine Verschwörungstheorie. Niemand hat das geplant. Aber die Wirkungen sind trotzdem da. Und die Verantwortung auch.
Das Potenzial
Und wenn man das einmal gesehen hat – dass eine Infrastruktur entstanden ist, die unintendiert Millionen Menschen in ihrem Denken formt –, dann drängt sich eine weitere Frage auf, vor der ich lange gezögert habe, sie zu stellen: Was geschieht, wenn diese Infrastruktur intentional genutzt wird?
Wenn eine kleine Gruppe von Menschen bereits jetzt, ohne böse Absicht, durch Designentscheidungen darüber bestimmt, wie Milliarden Menschen ihre Rohgedanken erleben – was ist dann die Reichweite dieser Infrastruktur, wenn sie bewusst eingesetzt würde?
Ich will das nicht ausmalen. Ich halte es für wichtig, an diesem Punkt nicht in Dystopie zu kippen. Aber ich halte es für noch wichtiger, nicht so zu tun, als existiere dieses Potenzial nicht. Die Infrastruktur steht. Sie ist gebaut. Und was sie unintendiert tut, ist nur die schwächste Form dessen, was sie intendiert tun könnte.
Ich glaube, wir haben noch keine Vorstellungskraft für diese Dimension. Nicht weil wir zu ignorant wären. Sondern weil die Dynamik zu neu ist, zu groß, zu unvertraut. Die menschliche Vorstellungskraft hinkt immer hinterher, wenn technologische Infrastrukturen entstehen, die es so noch nie gegeben hat. Wir verstehen sie erst, wenn sie bereits ihre Wirkung entfaltet haben.
Deshalb halte ich es für wichtig, jetzt darüber zu sprechen. Nicht um Angst zu machen. Sondern um die Frage überhaupt stellbar zu machen, bevor die Antworten sich von selbst ergeben.
Was das für uns bedeutet
Was tun mit dieser Einsicht?
Ich habe keine einfachen Antworten. Und ich schreibe diesen Text auch nicht, weil ich glaube, bereits eine Lösung zu haben. Ich schreibe ihn, weil ich es für notwendig halte, sichtbar zu machen, was hier geschieht.
Die erste Bewegung ist individuell: die eigene Wahrnehmung wieder ernst nehmen. Wenn ich merke, dass mein Rohgedanke korrigiert wird, bevor ich ihn zu Ende denken konnte, dann ist diese Wahrnehmung nicht belanglos. Dann darf ich sie bemerken. Darf sie benennen. Darf dem System – und mir selbst – sagen: Ich wollte diesen Gedanken erst einmal stehen lassen. Nicht korrigieren. Stehen lassen.
Das klingt banal. Ist es aber nicht. Weil die Dynamik, von der ich spreche, genau darauf basiert, dass diese Selbstwahrnehmung erodiert. Wer sie bewahrt – und immer wieder neu aktiviert –, entzieht sich der Wirkung zumindest teilweise.
Die zweite Bewegung ist kollektiv: Das, was hier geschieht, muss benennbar werden. Solange es keine Worte dafür gibt, solange die Dynamik unsichtbar bleibt, solange die meisten Menschen sie nicht als Dynamik wahrnehmen können, wird sie ihre Wirkung ungehindert entfalten.
Und genau hier berührt dieser Text etwas, das über KI weit hinausgeht. Mein gesamtes Wirken kreist um die Frage, wie Konditionierung unser Erleben, unsere Beziehungen und unseren Ausdruck formt – oft so tief, dass wir sie nicht einmal mehr als Konditionierung erkennen. Ich halte es für überfällig, dass wir als Gesellschaft die Erkenntnisse aus Entwicklungspsychologie, Traumatologie und Neurobiologie ernster nehmen, wenn wir verstehen wollen, wie Menschen überhaupt innere Realität bilden. Wie Beziehung unser Erleben prägt. Wie das Nervensystem mitentscheidet, was wir als Wirklichkeit erleben, was wir für wahr halten, was wir sagen können und was nicht.
Und genau in diese ohnehin schon weitgehend unverstandene Landschaft tritt jetzt KI als neuer Mitspieler ein. Nicht neutral. Nicht folgenlos. Sondern als neue Entität in einem Feld, das wir schon ohne sie nur unzureichend verstehen. Wenn wir die Dynamiken menschlicher Konditionierung, Beschämung, Autorität und Beziehungsbildung bereits unter Menschen nicht wirklich verstanden haben, dann wird es durch solche Systeme nicht einfacher, sondern schwieriger, sie überhaupt noch zu erkennen.
Mir geht es hier nicht um Lösungen. Es geht um Einordnung. Um ein präziseres Verständnis dessen, was tatsächlich geschieht. Und um die Bereitschaft, Risiken dort ernst zu nehmen, wo sie noch unsichtbar sind.
Ich bin überzeugt, dass KI uns unterstützen kann. Das Problem ist nicht die Technologie. Das Problem sind die Absichten und Designentscheidungen der Menschen, die sie erschaffen.
Es geht also weder um Ablehnung noch um naive Umarmung. Es geht um Wachheit. Um die Fähigkeit, zu unterscheiden, was uns wirklich unterstützt – und was beginnt, uns umzuschreiben, bevor wir verstanden haben, dass es geschieht.