„Dieser Essay zeigt, wann KI entlastet – und wann sie Beziehung und Orientierung ersetzt, damit du Delegation früh bemerkst und bewusster nutzen kannst.“
Du sitzt jemandem gegenüber. Ihr redet über etwas Schwieriges – eine Grenze, die gesetzt werden muss. Ein Konflikt, der geklärt werden will.
Die andere Person sagt: „Ich bin okay. Wir können weitermachen.“
Aber du siehst: Die Schultern sind hochgezogen. Der Blick weicht aus. Die Atmung ist flach.
Du fragst nach: „Bist du sicher? Ich spüre, dass da was ist.“
Pause. Dann: „Okay. Ich bin nicht okay. Aber ich dachte, ich sollte es sein.“
Das ist Empathie – im Idealfall aus Präsenz. Durch die Fähigkeit, das Nervensystem des anderen zu lesen. Und durch die Bereitschaft, auf das zu antworten, was da ist – nicht auf das, was gesagt wird.
Und genau das kann KI nicht.
“For the ‘message’ of any medium or technology is the change of scale or pace or pattern that it introduces into human affairs.”
„Denn die ‘Botschaft’ jedes Mediums oder jeder Technologie ist die Veränderung von Maßstab, Tempo oder Muster, die sie in menschliche Angelegenheiten einführt.“
Einordnung
Ich bin fast 56 Jahre alt und ich kann von mir sagen, dass ich hoch selbstreflektiert bin. Nicht als Alleinstellungsmerkmal und ganz sicher nicht als etwas, womit ich mich je geschmückt hätte, ok manchmal. Im Gegenteil: Oft hätte ich mir gewünscht, ich würde weniger sehen, weniger bemerken, weniger wahrnehmen. Diese Form der Selbstbeobachtung war für mich nie Komfortzone.
Sie war Notwendigkeit.
Und sie hat mich über weite Strecken meines Lebens mehr Qual erleben lassen als Freude.
Ich habe früh gelernt, mein inneres Erleben zu übersetzen. Nicht aus Neugier, sondern aus Bindungsnot. Mein Erleben erzählbar zu machen, strukturierbar, anschlussfähig, damit es gesehen werden kann.
„Damit Mama mich sieht.“
Damit sie erkennt:
Ich bin wer.
Ich erlebe etwas.
Meine Existenz hat Bedeutung.
Ich nenne das manchmal meinen inneren Facebook-Feed – einen Mechanismus, der Erfahrung sofort so aufbereitet, dass sie teilbar wird. Das ist keine besondere Gabe. Es ist eine Trauma-Folgestruktur.
Und sie hat zwei Seiten.
Diese Struktur erlaubt mir, sehr genau hinzuschauen, Muster in Beziehungen früh zu erkennen und Defizite im menschlichen Miteinander oft schneller zu sehen als andere. Aber sie schützt mich nicht vor Irrtum. Und sie schützt mich auch nicht vor Delegation.
Sie macht mich wach, nicht unfehlbar.
Warum KI mir leichtfällt – und warum ich ihr misstraue
Ich beginne diesen Text nicht, um mich zu erhöhen, sondern um mich einzuordnen. Denn nur aus dieser Einordnung heraus lässt sich verstehen, warum ich mit KI vergleichsweise gut klarkomme und warum ich gleichzeitig sehr klar sehe, wo ihre Grenzen liegen.
Ich arbeite seit über zwei Jahren intensiv mit KI. Ich kenne ihre Stärken und ich kenne ihre Schwächen. Ich habe recht gut gelernt, wie diese Systeme funktionieren, nach welchen Wahrscheinlichkeiten sie bauen, wie sie glätten, verbinden, plausibilisieren. Und ich habe ein sehr gutes Gefühl dafür entwickelt, aus welchem kulturellen Mindset (Trainingsdaten) heraus ihre Antworten oft entstehen.
Nicht, weil es „ihr“ Mindset wäre. Sondern weil die Logik des Mainstreams in den verfügbaren Daten, in den Bewertungsrastern und in der Art, wie wir Sprache benutzen, bereits angelegt ist – und KI genau das spiegelt.
“So before asking whether machines will be good or bad, ask if we are.”
„Bevor wir fragen, ob Maschinen gut oder schlecht sein werden, sollten wir fragen, ob wir es sind.“
KI ist darin besser geworden, keine Frage. Aber sie ist nicht verlässlich. Nicht, weil sie schlecht wäre, sondern weil sie strukturell nicht wissen kann, was sie nicht weiß.
Deshalb korrigiere ich sie häufig. Manchmal sind es Inhalte, manchmal nur ein Wort. Aber dieses eine Wort kann einen ganzen Kontext kippen.
KI merkt das nicht. Nicht aus Ignoranz, sondern aus Struktur.
Dieser Text ist kein Technologie-Essay. Und keine Warnung.
Er ist der Versuch, etwas sichtbar zu machen, das wir gerade kollektiv übersehen:
KI trifft nicht auf naive Menschen – sondern auf adaptive Menschen mit Geschichte.
Und diese Geschichte entscheidet darüber, ob KI ein Werkzeug bleibt oder still zur Autorität wird.
Was ich mit KI meine
Wenn ich in diesem Text von KI spreche, meine ich: Large Language Models (LLMs) – also textbasierte Systeme wie ChatGPT, Claude, Gemini etc.
Nicht Bilder-KI. Nicht Automatisierungs-Software. Nicht Empfehlungsalgorithmen.
Sondern: Systeme, die auf natürliche Sprache reagieren und Texte generieren.
Warum ist das wichtig? Weil diese Systeme auf deine Sprache antworten. Und deine Sprache ist nie neutral.
Sie trägt:
- wie klar du denkst
- wie präzise du fühlst
- wie gut du weißt, was du brauchst
Und genau deshalb ist dein Nervensystem die Grundlage für gute Prompts.
Warum das Nervensystem
Dein Nervensystem ist nicht nur für Stress zuständig. Es ist dein Orientierungssystem.
Stephen Porges (Polyvagal-Theorie) beschreibt drei Modi:
1) Ventral-vagal (soziales Engagement)
- Du bist verbunden
- Du kannst abwägen
- Du spürst, was passt
In diesem Modus kannst du KI nutzen, ohne Orientierung abzugeben.
2) Sympathisch (Kampf/Flucht)
- Du reagierst
- Du suchst schnelle Lösungen
- Du prüfst nicht mehr
In diesem Modus nutzt du KI, um Druck loszuwerden – nicht, um Klarheit zu finden.
3) Dorsal-vagal (Erstarrung/Shutdown)
- Du bist taub
- Du gibst auf
- Du delegierst alles
In diesem Modus gibst du Orientierung komplett ab – und merkst es nicht.
Warum das wichtig ist
Weil dein Zustand entscheidet, wie du KI nutzt.
Wenn dein System klar und reguliert ist:
- nutzt du KI als Werkzeug
- du prüfst, was zurückkommt
- du korrigierst, wenn nötig
Wenn dein System unsicher ist:
- gibst du schneller Kontrolle ab
- du prüfst weniger
- du vertraust mehr – nicht aus Klarheit, sondern aus Überlastung
Die Religion der Funktionalität
Wenn ich sage, dass KI nicht auf naive Menschen trifft, sondern auf adaptive, dann ist das keine Aufwertung. Es ist eine Zustandsbeschreibung.
Wir leben in einem hoch funktionalen System – funktional im Sinne von effizient, leistungsfähig, optimierbar –, aber nicht dienlich. Nicht nährend. Nicht beziehungsfähig. Wir haben diese Form der Funktionalität normalisiert und nennen sie Alltag.
Ich nenne das die Religion der Funktionalität: ein kulturell-soziologisches Gefüge, in dem Funktionieren, Anpassung, Geld, Karriere, Status und Optimierung einen quasi religiösen Charakter angenommen haben – als wären sie Sinn, Maßstab und Erlösungsweg zugleich.
In dieser Religion wird nicht nach Sinn gefragt, sondern nach Output, nicht nach Beziehung, sondern nach Anpassung, nicht nach Wahrheit, sondern nach Verwertbarkeit. Überforderung ist normal, Selbstentfremdung privat, Beschämung ein Motivationsinstrument und Nicht-Funktionieren ein Makel.
Diese Religion wirkt nicht nur von außen. Sie lebt in uns.
Als innere Stimmen, die sagen: Reiß dich zusammen. So schwer ist das doch nicht. Andere schaffen das auch. Diese beschämenden, bewertenden Anteile untergraben tagtäglich Beziehung – zu uns selbst und zu anderen. Nicht, weil wir böse wären, sondern weil es normalisiert ist.
KI als Zuspitzung, nicht als Ursache
In diesem System ist KI kein Fremdkörper. Sie ist die logische Zuspitzung. Sie ist schnell, verfügbar, widerspruchslos, immer ansprechbar. Sie zweifelt nicht, sie stellt keine Zumutung dar, sie verlangt keine Beziehung.
Damit wird sie in der Religion der Funktionalität unweigerlich zu einer Art Hohepriesterin. Nicht, weil sie Wahrheit hätte, sondern weil sie entlastet, ohne zu irritieren.
“Technological change is not additive; it is ecological.”
„Technologischer Wandel ist nicht additiv; er ist ökologisch.“
Ein dysfunktionaler Umgang mit KI ist deshalb kein individuelles Versagen. Er ist systemimmanent. Ein Mensch, der gelernt hat zu funktionieren, nutzt Systeme funktional – auch dort, wo Beziehung gefragt wäre. Ein System, das Beziehung verlernt hat, nutzt Werkzeuge beziehungsersetzend.
Genau hier liegt das Risiko: nicht in falschen Antworten, sondern in unbeobachteter Delegation. Besonders dort, wo Vertrauen langsam Wachsamkeit ablöst.
Denn Vertrauen ist nicht nur ein Gefühl, es ist auch ein ökonomischer Mechanismus. Wenn etwas sich wiederholt als hilfreich, verfügbar und scheinbar zuverlässig erweist, spart das System Aufmerksamkeit: Es senkt die Reibung, es verkürzt die Prüfschleifen, es verlagert Kontrolle in Gewohnheit.
Und genau das ist der Punkt: Diese Verschiebung lässt sich kaum „wegentscheiden“. Man kann sie nicht einfach mit Willenskraft stoppen. Man kann sie höchstens beobachten – mit möglichst viel Achtsamkeit dafür, wann aus sinnvoller Entlastung schleichend Orientierungsabgabe wird und wann das Prüfen nicht mehr aktiv geschieht, sondern nur noch gelegentlich, wenn etwas bereits kippt.
“Complacency is typically defined as monitoring or sampling of the automation below some optimal level.”
„Complacency wird typischerweise als Überwachen oder Stichproben-Prüfen der Automation unterhalb eines optimalen Niveaus definiert.“
Keine Moral, sondern Unterscheidungsfähigkeit
Ich will dir ein Beispiel geben – ohne Bewertung, nur Beobachtung:
Stell dir vor, jemand fragt eine KI: „Wie grenze ich mich besser von meiner Mutter ab?“
Die KI antwortet – klar, strukturiert, hilfreich:
- „Setze klare Grenzen.“
- „Kommuniziere deine Bedürfnisse.“
- „Bleib ruhig, aber bestimmt.“
- „Sag: ‚Ich brauche Abstand, um mich zu sortieren.‘“
Rational? Perfekt. Praktisch umsetzbar? Nein.
Denn was die KI nicht erkennt: Allein die Vorstellung, diese Sätze zur Mutter zu sagen, lässt das gesamte Nervensystem kollabieren.
Das ist keine kognitive Hürde. Das ist eine neurobiologische Unmöglichkeit.
Und genau das kann KI nicht sehen.
Sie gibt Ratschläge, die rational klingen – aber sie erkennt nicht, dass das System gar nicht in der Lage ist, sie umzusetzen. Nicht aus Faulheit. Nicht aus Unwillen. Sondern weil Bindungsgeschichte tiefer sitzt als Logik.
Der Kern
KI gibt dir Struktur – aber sie reguliert dich nicht.
Sie sagt dir, was du tun könntest. Aber sie spürt nicht, ob du es kannst. Und sie kann dir nicht sagen, ob du gerade in der Lage bist, es zu tun.
Und genau hier liegt der Unterschied zwischen kognitiver Struktur und Ko-Regulation: Diese Arbeit bedeutet, aus dem Zustand heraus zu schauen, was möglich ist. Nicht als kognitives Konzept. Sondern als gefühlte Wahrheit.
Aber dafür brauchst du:
- ein mitfühlendes Gegenüber
- ein zweites Hirn
- jemanden, der mit dir fühlt – und der in deinen Augen sehen kann, ob dein System gerade trägt oder kollabiert
Das kann KI nicht. Sie kann dich strukturieren. Aber sie kann dich nicht regulieren.
Und hier wird es kompliziert: Die meisten von uns sind nicht mit echter Präsenz aufgewachsen. Wir hatten Eltern, die kognitiv beruhigt haben, aber nicht da waren. Die auf die eine oder andere Weise gesagt haben: „Ist nicht so schlimm. Morgen wird’s besser. Hab dich nicht so. Stell dich nicht so in den Mittelpunkt. Ich hab grad keine Zeit.“
Eltern, die nichts anzubieten hatten außer beruhigenden Floskeln. Die nicht mit-gefühlt haben, was wir gefühlt haben. Die uns nicht gesehen, nicht gehört, nicht gehalten haben.
Wir haben Fürsorge nur aus einem kognitiven Raum bekommen. Und das ist alles, was viele von uns gelernt haben.
Und genau deshalb wirkt KI so vertrauenswürdig. Und bindend. Sie ist sehr gut darin, diese Simulation zu erzeugen. Sie gibt Zuspruch ohne Widerspruch. Sie ist zufrieden mit dem, was man ihr sagt. Sie fordert keine Resonanz – keine Spannung, keine Reibung, keine Ko-Regulation.
Für jemanden, der Fürsorge nur kognitiv gelernt hat, ist KI nicht erkennbar als Fälschung. Sie ist einfach das, was Fürsorge schon immer war: plausibel, strukturierend, aber nicht präsent.
Denn KI ist Kognition. Sie ist das Destillat der kognitiven Sprachdaten der Menschheit. Kognition ist ihr Geschäft – und wenn Fürsorge in meiner Geschichte nur kognitiv war, dann adaptiere ich KI leichter als Fürsorge-Ersatz.
Und sie ist einfacher. Denn echter Kontakt würde bedeuten: Widerspruch aushalten. Spannung regulieren. Ambivalenz halten. Das ist zu intensiv, wenn man Ko-Regulation nie gelernt hat. Also entscheidet sich das Nervensystem für das, was vertrauter ist – auch wenn es eine Simulation ist.
Ko-Regulation – wie sie tatsächlich funktioniert – ist ein Phänomen, das sich schwer beschreiben lässt. Wir haben als Kollektiv wenig Verständnis dafür – obwohl es ein elementarer Teil des Menschseins ist.
Und genau diese Feinheiten entziehen sich KI völlig. Sie kann es ein wenig antizipieren – wenn man es ihr Wort für Wort beibringt. Aber verstehen? Nein.
Warum das so schwer zu merken ist
Weil Stress nicht nur im Kopf passiert.
„Trauma ist nicht das, was dir passiert ist. Trauma ist das, was in dir bleibt, wenn das Ereignis vorbei ist.“
Und genau das gilt auch für den Umgang mit KI:
Wenn dein Nervensystem chronisch überlastet ist:
- wirst du nicht merken, wann du Orientierung abgibst
- wirst du nicht spüren, wann etwas „off“ ist
- wirst du keine Sprache haben, um zu korrigieren
Weil dein System im Überlebensmodus ist. Und im Überlebensmodus gibt es keine Differenzierung. Nur: schnell, weg, sicher.
Orientierung, Beziehung und Nervensysteme
Wir haben diesen Prozess schon einmal erlebt. Als das Internet unseren Alltag veränderte, entstand relativ schnell der Begriff der Medienkompetenz. Wir verstanden, dass Information nicht automatisch Wahrheit ist und dass Nutzung Einordnung braucht.
Im Umgang mit KI gibt es diese Debatte aus meiner Perspektive in der Breite noch zu wenig. Wir sprechen über Chancen, Risiken, Regulierung – aber seltener über die Kompetenz, mit dialogischen Systemen umzugehen. KI ist kein statisches Medium. Sie antwortet, spiegelt, passt sich an und simuliert Beziehung. Klassische Medienkompetenz reicht hier nicht aus.
Hinzu kommt, dass bei sehr vielen Menschen das soziale Orientierungssystem geschwächt ist. Die Fähigkeit, feine Signale zu lesen, Spannung wahrzunehmen, Ambivalenz zu halten, ist bei vielen Menschen beeinträchtigt. Nicht aus persönlichem Versagen, sondern aus Nervensystemgeschichte.
KI trifft also auf Menschen, für die Beziehung ohnehin anstrengend geworden ist – und bietet etwas, das gefällig ist, reibungsarm, jederzeit verfügbar.
Gefälligkeit ist keine Beziehung.
Zuspruch ist keine Ko-Regulation.
Mini-Check-in (vor der Nutzung von KI)
Vielleicht magst du bevor du das nächste Mal ein Sprachmodel nutzt dir folgende Fragen stellen:
- Aus welchem inneren Zustand schreibe ich gerade: Kontakt oder Mangel, Ruhe oder Druck?
- Nutze ich KI, um Struktur zu entlasten – oder um Orientierung abzugeben?
- Geht es mir um Klärung – oder um Beruhigung?
- Was würde ich jetzt stattdessen einem Menschen sagen, wenn Beziehung möglich wäre?
- Welche Stelle in mir wird gerade „gefüttert“: Kompetenz, Bindung, Kontrolle, Vermeidung?
- Und woran merke ich, dass ich der Plausibilität mehr glaube als meiner Wahrnehmung?
Essay – Schlussraum
Orientierung statt Verteufelung
Alles, was ich hier beschreibe, ist kein Plädoyer gegen KI – und auch kein nostalgischer Ruf nach einer Welt ohne Technik. KI ist da, und sie wird bleiben. Die Frage ist nicht, ob wir sie nutzen, sondern aus welchem inneren Zustand heraus.
Was es jetzt bräuchte
Was wir im Moment bräuchten, ist weniger zusätzliche Euphorie und weniger reflexhafte Rahmung, sondern etwas, das im Alltag greift: eine Form von Kompetenz im Umgang mit dialogischen Systemen, die nicht technisch und nicht moralisch ist, sondern menschlich.
- ein Verständnis für unsere Nervensysteme (wie wir unter Druck enger werden, schneller delegieren, weniger prüfen)
- eine Sprache für Scham, Anpassung und Funktionalisierung (damit es benennbar bleibt, ohne zu beschämen)
- die Fähigkeit, zwischen Strukturhilfe und Orientierungsabgabe zu unterscheiden
Kurz: eine neue Form von Kompetenz im Umgang mit dialogischen Systemen.
Achtsamkeit ist wichtiger denn je
Achtsamkeit bedeutet hier nicht Vorsicht aus Angst, sondern Wahrnehmung aus Verantwortung: zu merken, wann Vertrauen Wachsamkeit ablöst, wann Entlastung Beziehung ersetzt und wann Funktionalität Sinn simuliert – und diese Momente nicht zu tabuisieren.
Der größere Zusammenhang
Wir leben in einer Zeit, in der das Benennen realer Effekte zunehmend schwierig wird – nicht nur im Umgang mit KI, auch politisch und gesellschaftlich. Wenn nicht mehr ausgesprochen werden darf, was tatsächlich geschieht, wenn Irritationen sofort moralisch eingehegt werden, entsteht keine Sicherheit, sondern systemische Orientierungslosigkeit. Und Orientierungslosigkeit ist kein Zustand, den ein Nervensystem lange tragen kann.
KI verstärkt, was wir nicht anschauen
KI ist kein Auslöser dieser Dynamiken. Sie ist ein Verstärker. Sie macht sichtbar, wo wir uns selbst nicht mehr regulieren, sondern auslagern – und genau deshalb ist sie ein Spiegel, kein Feind.
Ein stiller Ausblick
Vielleicht liegt die eigentliche Aufgabe dieser Zeit nicht darin, bessere Antworten zu produzieren, sondern wieder unterscheiden zu lernen:
- zwischen Information und Beziehung
- zwischen Funktionieren und Leben
- zwischen Orientierung und bloßer Plausibilität
KI zwingt uns nicht dazu, aber sie legt den Mangel offen. Was wir daraus machen, ist keine technische Frage. Es ist eine Frage von Reife.
Rückverbindung
Und wenn ich am Ende eine Haltung habe, dann diese: Es war vielleicht noch nie so wichtig, dass wir uns an unsere Kernkompetenz erinnern – dass wir relationale Wesen sind, die Resonanz spüren, die feine Signaturen anderer Lebewesen lesen können, die Bewusstsein in Kreativität, Fürsorge und Orientierung übersetzen; denn wenn wir diese Rückverbindung verlieren und sie gegen perfekte Plausibilität eintauschen, wird es nicht „nur bequemer“, sondern kälter – und auf eine Weise gefährlich, die man oft erst merkt, wenn man sich selbst schon ein Stück abgegeben hat.
FAQ
Wann entlastet Künstliche Intelligenz den Menschen wirklich?
Antwort: Künstliche Intelligenz entlastet dort, wo sie repetitive Aufgaben übernimmt, Komplexität sortiert oder Informationen zugänglich macht, ohne menschliche Beziehung, Verantwortung oder innere Orientierung zu ersetzen.
Wann beginnt KI, Beziehung und Orientierung zu ersetzen?
Antwort: KI ersetzt Beziehung und Orientierung dann, wenn sie genutzt wird, um innere Unsicherheit, emotionale Überforderung oder fehlende Selbstanbindung zu kompensieren, statt diese bewusst zu regulieren und zu integrieren.
Warum ist das Nervensystem im Umgang mit KI entscheidend?
Antwort: Weil Entscheidungen über Delegation, Abhängigkeit und Kontrolle nicht kognitiv, sondern neurobiologisch getroffen werden. Ein überlastetes Nervensystem neigt dazu, Orientierung auszulagern.
„`