
KI wird immer mehr zu einer kognitiven Infrastruktur, die in ganz unterschiedlichen Lebensbereichen genutzt wird. Sie automatisiert unzählige Vorgänge, vermittelt zwischen Wissenschaft und Öffentlichkeit, assistiert bei kreativer Arbeit und ist als alltägliche Instanz für Wissensfragen längst akzeptiert. Daneben wird mit ihr digitaler Schrott – sogenannter Slop – in erschreckend großen Mengen produziert.
Neulich in der Regionalbahn: Zwei Jugendliche, mitten im Gespräch, unsicher über die Richtigkeit einer Idee, zücken ihre Smartphones – Lass uns mal ChatGPT fragen. Rückbezug Nicht Google, nicht Wikipedia. Die Sprachmaschine ist zur Suchmaschine geworden. Ein einfaches Beispiel dafür, wie sehr sich die Nutzung von KI im Alltag verbreitet hat.
Ihre Funktion ist die eines Intermediärs. KI verbindet Nutzer mit einem Thesaurus aus Trainingsdaten – gesammeltem Wissen und kreativen Leistungen in Form von Texten, Bildern, Klängen, Code – grundsätzlich allem, was sich digital erfassen liess. Roberto Simanowski nennt sie Sprachmaschine. Sie zitiert nicht aus den Quellen, sie synthetisiert daraus
Der Thesaurus ist kein geordnetes Archiv, er ist ein qualitativ neues Datenreservoir, das sich bildlich als digitales Magma beschreiben lässt – eine aufgelöste Masse aus Texten, Bildern, Code, Meinungen, Fakten und Fiktionen, ohne Hierarchie, ohne Kuratierung.

Woher KI ihre Antworten bezieht, zeigt eine Analyse von 150.000 KI-Zitationen (siehe Abb.): An erster Stelle steht Reddit (40,11%), gefolgt von Wikipedia (26,33%), YouTube (23,52%) und Google selbst (23,28%). Erst dann folgen Bewertungsplattformen wie Yelp, Amazon, Tripadvisor. Was häufig zitiert wird, steigt nach oben. Was selten ist, versinkt.
Das digitale Magma ist nicht identisch mit dem öffentlich zugänglichen Web, aber es wird von ihm dominiert. Zwar fließen auch Wikipedia, wissenschaftliche Preprints, lizenzierte Nachrichtenarchive und – vermutlich illegal – Millionen urheberrechtlich geschützter Bücher, Bilder, Musikstücke in die Trainingsdaten. Doch allein das Volumen des Social Web übertrifft andere Quellen. Zusammengeschafft in gigantischen Web-Crawls – automatisierte Sammlungen von allem, was öffentlich zugänglich war KI ist weniger ein Konzentrat des Weltwissens als eine Quintessenz des Social Web.
Sprachmodelle verarbeiten statistische Muster, nicht Bedeutung, sie kennen keine Referenz ausserhalb ihrer statistischen Verteilungen.
Sie übersetzen Daten in natürliche Sprache, KI wird zur vermittelnden Instanz, zum Intermediär von Wissen. Selber erzeugt sie kein Wissen und keine Erkenntnis, aber sie organisiert den Zugang zu den digitalen Wissensspeichern. Als Intermediär hat die KI also Einfluss darauf, was wir wahrnehmen und wie wir es verstehen.
Damit verschiebt sich etwas Grundlegendes. Suchmaschinen führten zu den Quellen – zu den Websites, Dokumenten, Publikationen, wo Wissen abrufbar war. Die Bewertung blieb den Nutzern selber überlassen. KI hingegen organisiert den Zugang nicht nach bibliothekarischen oder wissenschaftlichen Kriterien, sondern nach statistischer Wahrscheinlichkeit. Sie führt nicht zu Quellen, sondern produziert synthetische Plausibilität. Eine vermittelnde Instanz ohne Eigenstandpunkt, ohne Referenz außerhalb ihrer statistischen Verteilungen.
In der Neuropsychologie bezeichnet Konfabulation das schlüssige Erfinden von Zusammenhängen bei fehlendem Wissen, ohne Täuschungsabsicht. Der Patient mit Gedächtnislücken füllt diese nicht bewusst mit Lügen, sondern mit dem, was seinem Hirn plausibel erscheint. KI-Modelle operieren ähnlich: Sie sind darauf trainiert, plausible Fortsetzungen von Texten zu erzeugen. Was statistisch wahrscheinlich klingt, wird zur Antwort.
Der Begriff Plausible Konfabulation ist daher kein Zynismus, keine Polemik, sondern bildliche Beschreibung eines Funktionsprinzips. Und dieses Prinzip lässt sich, bewusst eingesetzt, produktiv nutzen.
Plausible Konfabulation erleichtert den Ausgriff auf spekulative Ideen, auf Möglichkeitsräume jenseits des bereits Gewussten. KI kann als Sparringspartner für Gedanken dienen. Sie füllt Lücken, kombiniert Muster neu, kann divergente Denkräume öffnen, die sich ohne sie vielleicht nicht geöffnet hätten. Sie liefert Input, Varianten, unerwartete Kombinationen – der Nutzer wählt aus, bewertet, verwirft, verfeinert.
Die Stärke liegt im Aufzeigen des Möglichen, nicht in der einzig richtigen Lösung. Assistenz bedeutet hier nicht Automatisierung, sondern digitales Lektorat – ein Gegenüber, das Vorschläge macht, ohne Entscheidungen zu erzwingen. Der Nutzer bleibt Instanz der Bewertung, die KI liefert Material.
Die Wirkung von Konfabulationen unterscheidet sich je nach Anwendungsbereich. In strukturierten, abgegrenzten Domänen kann KI durchaus verlässlich als Wissens-Intermediär fungieren: In juristischen Datenbanken mit definiertem Corpus von Rechtsprechung und Gesetzestexten, in medizinischen Fachdatenbanken mit kuratierten Studien, beim Coding mit formalen Systemen und eindeutigen Regeln. Dort, wo Fragen und Thesaurus präzise aufeinander abgestimmt sind, wo Retrieval-Augmented Generation (RAG) den Zugriff auf verifizierbare Quellen sichert, bleibt die Konfabulation eingegrenzt.
Bei der Generierung von Bild- und Toninhalten, generell bei fiktionalen Inhalten, stellt sich die Frage nach Wahrheit nicht. Dort geht es nicht um Erkenntnis, sondern um ästhetische Plausibilität – um Stil, Stimmigkeit, emotionale Wirkung. Ein KI-generierter Roman muss nicht wahr sein, der Reiz generierter Bilder liegt oft gerade in ihrer physischen Unmöglichkeit.
Die Probleme sind andere, Urheberschaft, Originalität, die Frage, ob kreative Leistung ohne intentionale Struktur überhaupt als solche gelten kann.
Problematik – die Konfabulation von Fakten, die Vermischung von Wissen und Spekulation – betrifft primär den Einsatz von KI als Wissens-Intermediär: dort, wo sie Suchmaschinen ersetzt, wo sie Produktrecherchen durchführt, wo sie auf Fragen antwortet, bei denen ein Wahrheitsanspruch besteht.
Die Sprachmaschine lässt die Suchmaschine nicht verschwinden, aber hat sie verändert. Google als dominierende Suchmaschine ist nicht mehr nur ein Index, sondern hat sich durch KI-Übersichten (AI Overviews) selbst zu einer synthetisierenden Antwortmaschine entwickelt. Über 60% der Suchanfragen führen mittlerweile nicht mehr zu Klicks auf eine externe Website*.
Das bedeutet ein Ende der gewohnten Intermediarität im Netz, in der Suchmaschinen zu den Anbietern von – meist SEO-optimierten – Inhalten vermittelten. Nutzer geben sich stattdessen mit einer generierten Kurzfassung zufrieden. Zero-Klick-Recherchen entziehen den eigentlichen Urhebern dieser Inhalte die nötige Aufmerksamkeit und damit oft die wirtschaftliche Basis. Inhalte werden destilliert, ohne deren Produzenten zu kompensieren.
Vor gut einem Monat (5.12.2025) hat Anthropic, die Betreiberfirma der KI Claude Ergebnisse einer von KI-Agenten ausgeführten Studie online gestellt. Insgesamt sind 1250 Interviewprotokolle zur Nutzung online verfügbar, Bereits der Einblick in eine kleine Auswahl macht deutlich, was funktioniert und was nicht.
KI funktioniert dort, wo strukturierte Aufgaben (Code, Lückentexte, Zusammenfassungen) mit klaren Anweisungen kombiniert werden. Sie scheitert, wo Ton, Stil, emotionale Intelligenz oder faktische Präzision gefordert sind.
Intentionalität ist der Knackpunkt. Menschen erwarten von KI, dass sie ihre Intention versteht und automatisiert umsetzt – so wie sie es von einem kompetenten Mitarbeiter erwarten würden. Genau das kann die KI nicht leisten. Sie hat keine Vorstellung davon, was gemeint ist, nur davon, was statistisch wahrscheinlich folgt.
Es ist nicht einmal ein rein technisches Problem. Das Verständnis der Intention und noch mehr die Ausführung in ihrem Sinne, zählt zu den höchsten Anforderungen in jeder Zusammenarbeit.
Die Erwartung, Aufgaben zu delegieren statt zu assistieren, führt systematisch zu Enttäuschungen.
In den gesichteten Interview-Beispiele finden sich durchweg Hinweise darauf. Die Texterin erhält konfabulierte Montessori-Beispiele, wenn es um Kindergärten geht. Der Architekt bekommt 100 Zeilen funktionierenden Code in kurzer Zeit – aber bei E-Mails wird der Ton nicht getroffen. Die Lehrerin generiert maßgeschneiderte Geschichten für Schüler, scheitert aber selbst beim KI-gestützten Französischlernen. Der Student lässt sich Fachbegriffe erklären, ist aber überzeugt, dass KI nie den emotionalen Vorteil eines menschlichen Arztes” ersetzen kann. Die KI liefert statistische Plausibilität, versteht aber nicht die Intention.
Kreative nutzen KI, um ihre Produktivität zu steigern, trotz der Kritik ihrer Kollegen und Zukunftsängsten. Sie müssen sich sowohl mit der unmittelbaren Stigmatisierung des KI-Einsatzes in kreativen Gemeinschaften als auch mit tieferliegenden Sorgen über wirtschaftliche Verdrängung und den Verlust der menschlichen kreativen Identität auseinandersetzen. **
Wissenschaftler wünschen sich eine Partnerschaft mit KI, vertrauen ihr aber noch nicht für die Grundlagenforschung. Sie äußerten einhellig den Wunsch nach KI, die Hypothesen generieren und Experimente entwerfen kann. Derzeit beschränken sie deren Einsatz jedoch auf Aufgaben wie das Verfassen von Manuskripten oder das Debuggen von Analysecode.**
Der Nutzer bleibt verantwortlich für die Angemessenheit (Appropriateness) des KI-Einsatzes. KI kann nicht entscheiden, wann ihre Konfabulation produktiv ist (bei kreativer Exploration) und wann sie problematisch wird (bei Faktenfragen mit Wahrheitsanspruch). Die Urteilskraft muss beim Menschen bleiben – und setzt voraus, dass er erkennt, wann er es mit Konfabulation zu tun hat.
KI kann ein Werkzeug für divergentes Denken sein. Sie öffnet den Raum für multiple Lösungswege, generiert Varianten, zeigt Möglichkeiten. Die Konvergenz – die Entscheidung für eine Lösung, die Bewertung der Angemessenheit – bleibt Aufgabe des Menschen. Die Maschine exploriert, der Mensch entscheidet.
Strukturierung, Argumentation, Synthese – Kernaufgaben der Wissensarbeit – werden zunehmend zwischen Mensch und Maschine ko-produziert. Die Frage ist nicht mehr, ob KI Teil intellektueller Arbeit wird, sondern wie diese Ko-Produktion gestaltet werden soll – und wer die Kontrolle behält.
Wer die Sprachmaschine nutzt, produziert meist mehr, schneller, glatter. Wer sie nicht nutzt, gerät oft ins Hintertreffen. Und weil (fast) alle sie nutzen, steigt das Tempo weiter. Die Maschine setzt den Takt – der Mensch passt sich an. Nicht unbedingt Fortschritt, oft ein Doping-Effekt. Die versprochene Zeitersparnis mündet in höhere Erwartungen an Geschwindigkeit und Volumen.
Man sollte nicht vergessen, dass der Sinn kreativer Arbeit in ihrer Wirkung auf Menschen liegt. Wenn sie beim Leser, Betrachter, Hörer etwas auslöst, hat sie sich oft schon gelohnt. KI kann für viele Zwecke eingesetzt werden, aber wir sollten entscheiden können, wann und in welchem Sinne.
Keine Technik ist unschuldig – und KI ist es auch nicht.
vgl.: . Carsten Brosda: Bevor die KI unsere Demokratie verschlingt FAZ. 3.01.26 – *Impact of Generative AI on Search Traffic and Content Visibility. In : beanstalkim.com März 25 – **Anthropic: Introducing Anthropic Interviewer: What 1,250 professionals told us about working with AI – vgl. auch. DocCheck Flexikon: Konfabulation. Roberto Simanowski: Sprachmaschinen – eine Philosophie der künstlichen Intelligenz . C.H. Beck 2025, 288 S. (Rezension) – Klaus Burmeister: .Ein Selbstversuch zwischen kognitiver Bereicherung und stillem Verlust. LinkedIn 25.11.2025.









