Was ist noch dein Gedanke – und was schon KI?

Über eine leise Verschiebung, die wir kaum bemerken

Vielleicht kennst du diesen Moment.

Du arbeitest an einem Text, einer Präsentation, einer schwierigen E-Mail. Du weißt, was du sagen willst, aber die Worte kommen nicht so, wie du sie dir vorstellst. Also fragst du die KI. Und dein Chatbot liefert. Flüssig, elegant, besser formuliert als dein erster Entwurf.

Du nimmst den Text. Du bist zufrieden. Vielleicht sogar erleichtert.

Aber dann, vielleicht später am Tag, fragt sich ein Teil von dir: War das noch meine Stimme?

Das Werkzeug, das mitdenkt

Wir sind es gewohnt, Werkzeuge zu benutzen, die unsere körperliche Arbeit erleichtern. Ein Hammer verlängert die Kraft unseres Arms. Ein Taschenrechner übernimmt das Rechnen. Keiner dieser Gegenstände hat Einfluss darauf, wie wir denken, urteilen und uns als Personen erleben.

Generative KI ist anders. Sie greift nicht in unsere Hände ein, sondern in unsere Sprache und unser Denken. Und damit in das, was uns am nächsten ist: die Art, wie wir Gedanken formen, Probleme beschreiben, Entscheidungen begründen.

Das ist keine Dystopie. Es ist ein beobachtbares Phänomen. Und es hat mehrere Namen.

Was leise mit uns passiert

Da ist zunächst etwas, das Kognitionswissenschaftler:innen den Fluency Effect nennen: Unser Gehirn bewertet Informationen, die sich flüssig lesen, automatisch als wahrer und verlässlicher. Und das unabhängig davon, was sie inhaltlich sagen. Das ist kein Denkfehler, es ist ein Grundmuster unserer menschlichen Wahrnehmung. Die Herausforderung: Generative KI produziert immer und ausschließlich flüssige Sprache. Sie klingt nie unsicher, nie suchend, nie unfertig. Selbst wenn das, was sie sagt, inhaltlich dünn oder schlicht falsch ist.

Dazu kommt ein zweites Muster, das Forschende der Harvard Kennedy School unlängst so beschrieben haben: KI-Outputs wirken nicht nur flüssig, sie wirken auch stimmig. Und zwar durch Struktur, innere Logik, einen überzeugenden Ton. Dabei bermerken wir jedoch kaum, dass Plausibilität nicht dasselbe wie Richtigkeit ist. Ein Argument kann sich vollkommen schlüssig anfühlen und trotzdem an der Realität vorbeigehen. Besonders tückisch ist das deshalb, weil es sich nicht wie ein Irrtum anfühlt, vielmehr wie richtiges Verstehen.

Und schließlich ist da noch die schleichendste Verschiebung von allen. Wenn wir KI intensiv nutzen und ihre Vorschläge regelmäßig gut finden, beginnen wir, ihr zu vertrauen. Das ist menschlich. Und genau darin liegt das Problem. Denn Vertrauen kippt unmerklich in Abhängigkeit. Wir hören auf, Empfehlungen wirklich zu prüfen. Wir übernehmen, was geliefert wird. Weil das System sich bewährt hat. Automation Bias nennt die Forschung diesen Effekt. Damit gemeint ist die Tendenz, automatisierten Systemen mehr zu glauben als unserem eigenen Urteil.

Jeder dieser Effekte wäre für sich genommen vielleicht noch beherrschbar. Was sie gefährlich macht, ist das Gleichzeitige. Flüssig klingend, plausibel wirkend, vertrauenswürdig durch Gewohnheit; all das trifft in jedem einzelnen KI-Moment gemeinsam ein. Und das ist nur ein Ausschnitt. Die Forschung beschreibt ein ganzes Feld weiterer solcher Effekte, die im Zusammenspiel mit KI wirksam werden. Wir stehen noch am Anfang dabei zu verstehen, was das in Summe bedeutet.

Das Ergebnis, das wir nicht sehen

Was sich aus all dem aufbaut, ist kein einzelner Effekt mehr, es ist ein Muster.

Psycholog:innen sprechen von Cognitive Offloading. Dieser Begriff steht für die Tendenz, kognitive Arbeit an externe Systeme auszulagern. Das Smartphone übernimmt das Erinnern. Das Navi übernimmt das Orientieren. KI übernimmt zunehmend das Formulieren, Strukturieren, Abwägen, Zusammenfassen. Das fühlt sich gut an. Effizienter, leichter und freier.

Aber hier liegt das eigentliche Paradox. Wir fühlen uns produktiver. Wir sind es in einem engen Sinne vielleicht sogar. Gleichzeitig verkümmern still die Fähigkeiten, die wir nicht mehr üben. Das Urteil, das keine Gelegenheit bekommt, sich zu bewähren. Die Formulierung, um die nicht mehr gerungen wird. Der Gedanke, der nicht mehr zu Ende gedacht wird, weil KI ihn schneller für uns beendet.

Der Verlust ist kaum spürbar, weil KI die entstehende Lücke sofort füllt. Wir merken nicht, dass wir etwas abgegeben haben weil das Ergebnis auf den ersten Blick genauso gut aussieht. Was bleibt, ist eine Scheinproduktivität: das Gefühl, viel zu leisten, bei gleichzeitiger Erosion genau der Fähigkeiten, die uns langfristig ausmachen.

Kein Aufruf zum Verzicht

Es wäre falsch – und ehrlich gesagt auch ziemlich nutzlos – an dieser Stelle zu sagen: Nutze KI einfach weniger!

KI ist ein mächtiges Werkzeug. Für viele Aufgaben ist sie - mündig und souverän eingesetzt  - tatsächlich besser, schneller, hilfreicher als das, was wir alleine produzieren würden.

Die entscheidende Frage ist eine andere: Weißt du, was du gerade abgibst… und willst du das wirklich?

Wenn du darüber nachdenkst, was du wirklich tun willst, was du kannst, was die Welt braucht, dann weißt du, dass Arbeit mehr ist als Effizienz. Dass Ausdruck, Stimme, Urteilsvermögen nicht nur Mittel zum Zweck sind, sondern ein Teil dessen, wer du bist.

Wenn du das ernst nimmst, wirst du KI ganz sicher nicht als äußerliche Angelegenheit behandeln. Nicht als Tool, das du einfach nutzt oder nicht nutzt. Sie berührt etwas Persönlicheres. Die Frage, was du abgibst, ist keine technische. Sie ist eine über dich selbst.

Bewusstsein als Praktik

Was wäre ein bewusster Umgang?

Er beginnt nicht mit Regeln oder Verboten, es beginnt vielmehr mit Aufmerksamkeit. Mit der Fähigkeit zu bemerken, wann du etwas delegierst. Und vor allem auch, ob du das willst.

Versuch es einmal so: Wenn dir eine KI-Antwort besonders überzeugend vorkommt, bitte sie im nächsten Schritt um das Gegenteil. Um das stärkste Argument gegen ihre eigene Empfehlung. Was dann passiert, ist aufschlussreich. Entweder findest du das Gegenargument genauso plausibel; und weißt nun, dass du es vorher nicht wirklich geprüft hast. Oder du merkst plötzlich sehr genau, warum nicht. Beides stärkt dein Urteil. Nur das Durchwinken tut es nicht.

Und noch eine Probe, die einfach klingt und es nicht ist: Wärst du bereit, eine Empfehlung der mit deinem Namen zu unterschreiben? Nicht im rechtlichen Sinn, aber im menschlichen. Kannst du erklären, warum du so entschieden hast? Kannst du dafür einstehen, wenn es schiefgeht? Wo die Antwort zögert, ist genau der Punkt, an dem dein Urteil gefragt ist, und nicht das der Maschine.

Das klingt nach kleinen Schritten. Tatsächlich steckt dahinter eine Grundhaltung, die sich über tausend alltägliche Momente kultivieren lässt. Oder nicht.

Wir haben ein Vormittags-Online-Seminar zu diesem Thema entwickelt. Einen Raum, in dem diese Haltung erfahrbar wird: durch konkrete Übungen, Hintergrundwissen und gemeinsame Reflexion. Alle Details zu diesem Termin am 20.4.26 findest du hier

Weiter
Weiter

Enneagramm und andere Persönlichkeitsmodelle