KI als Intermediär – Plausible Konfabulation

KI als Intermediär – Plausible Konfabulation. Bild:

KI wird immer mehr zu einer kognitiven Infrastruktur, die in ganz unterschiedlichen Lebensbereichen genutzt wird. Sie automatisiert unzählige Vorgänge, vermittelt zwischen Wissenschaft und Öffentlichkeit, assistiert bei kreativer Arbeit und ist als alltägliche Instanz für Wissensfragen längst akzeptiert. Daneben wird mit ihr digitaler Schrott – sogenannter Slop – in erschreckend großen Mengen produziert.

Neulich in der Regionalbahn: Zwei Jugendliche, mitten im Gespräch, unsicher über die Richtigkeit einer Idee, zücken ihre Smartphones – Lass uns mal ChatGPT fragen. Nicht Google, nicht Wikipedia. Die Sprachmaschine ist zur Suchmaschine  geworden.  Ein einfaches Beispiel dafür, wie sehr sich die Nutzung von KI im Alltag verbreitet hat.

Ihre Funktion ist die eines Intermediärs. KI verbindet Nutzer mit einem Thesaurus aus Trainingsdaten – gesammeltem Wissen und kreativen Leistungen in Form von Texten, Bildern, Klängen, Code – grundsätzlich allem, was sich digital erfassen liess. Roberto Simanowski nennt sie Sprachmaschine. Sie zitiert nicht aus den Quellen, sie synthetisiert daraus
Der Thesaurus ist kein geordnetes Archiv, er ist ein qualitativ neues Datenreservoir, das sich bildlich als digitales Magma beschreiben lässt – eine aufgelöste Masse aus Texten, Bildern, Code, Meinungen, Fakten und Fiktionen, ohne Hierarchie, ohne Kuratierung.

Woher KI ihre Daten bezieht. Quelle: Semrush Study of 150.000 Citations, June 2025 – nach Klick in voller Auflsung auf neuer Seite

Woher KI ihre Antworten bezieht, zeigt eine Analyse von 150.000 KI-Zitationen (siehe Abb.): An erster Stelle steht Reddit (40,11%), gefolgt von Wikipedia (26,33%), YouTube (23,52%) und Google selbst (23,28%). Erst dann folgen Bewertungsplattformen wie Yelp, Amazon, Tripadvisor.  Was häufig zitiert wird, steigt nach oben. Was selten ist, versinkt.
Das digitale Magma ist nicht identisch mit dem öffentlich zugänglichen Web, aber es wird von ihm dominiert. Zwar fließen auch Wikipedia, wissenschaftliche Preprints, lizenzierte Nachrichtenarchive und – vermutlich illegal – Millionen urheberrechtlich geschützter Bücher, Bilder, Musikstücke in die Trainingsdaten. Doch allein das Volumen des Social Web übertrifft andere Quellen. Zusammengeschafft in gigantischen Web-Crawls – automatisierte Sammlungen von allem, was öffentlich zugänglich war. KI ist weniger ein Konzentrat des Weltwissens als eine Quintessenz des Social Web.

Sprachmodelle verarbeiten statistische Muster, nicht Bedeutung, sie kennen keine Referenz ausserhalb ihrer statistischen Verteilungen.
Sie übersetzen Daten in natürliche Sprache,  KI wird zur vermittelnden Instanz, zum Intermediär von Wissen. Selber erzeugt sie kein Wissen und keine Erkenntnis, aber sie organisiert den Zugang zu den digitalen Wissensspeichern. Als Intermediär hat die KI also Einfluss darauf, was wir wahrnehmen und wie wir es verstehen.

Damit verschiebt sich etwas Grundlegendes. Suchmaschinen führten zu den Quellen – zu den Websites, Dokumenten, Publikationen, wo Wissen abrufbar war. Die Bewertung blieb den Nutzern selber überlassen. KI hingegen organisiert den Zugang nicht nach bibliothekarischen oder wissenschaftlichen Kriterien, sondern nach statistischer Wahrscheinlichkeit. Sie führt nicht zu Quellen, sondern produziert synthetische Plausibilität. Eine vermittelnde Instanz ohne Eigenstandpunkt, ohne Referenz außerhalb ihrer statistischen Verteilungen.

In der Neuropsychologie bezeichnet Konfabulation das schlüssige Erfinden von Zusammenhängen bei fehlendem Wissen, ohne Täuschungsabsicht. Der Patient mit Gedächtnislücken füllt diese nicht bewusst mit Lügen, sondern mit dem, was seinem Hirn plausibel erscheint. KI-Modelle operieren ähnlich: Sie sind darauf trainiert, plausible Fortsetzungen von Texten zu erzeugen. Was statistisch wahrscheinlich klingt, wird zur Antwort.
Der Begriff Plausible Konfabulation ist daher kein Zynismus, keine Polemik, sondern bildliche Beschreibung eines Funktionsprinzips. Und dieses Prinzip lässt sich, bewusst eingesetzt, produktiv nutzen.
Plausible Konfabulation erleichtert den Ausgriff auf spekulative Ideen, auf Möglichkeitsräume jenseits des bereits Gewussten. KI kann als Sparringspartner für Gedanken dienen. Sie füllt Lücken, kombiniert Muster neu, kann divergente Denkräume öffnen, die sich ohne sie vielleicht nicht geöffnet hätten. Sie liefert Input, Varianten, unerwartete Kombinationen – der Nutzer wählt aus, bewertet, verwirft, verfeinert.
Die Stärke liegt im Aufzeigen des Möglichen, nicht in der einzig richtigen Lösung. Assistenz bedeutet hier nicht Automatisierung, sondern digitales Lektorat – ein Gegenüber, das Vorschläge macht, ohne Entscheidungen zu erzwingen. Der Nutzer bleibt Instanz der Bewertung, die KI liefert Material.

Die Wirkung von Konfabulationen unterscheidet sich je nach Anwendungsbereich. In strukturierten, abgegrenzten Domänen kann KI durchaus verlässlich als Wissens-Intermediär fungieren: In juristischen Datenbanken mit definiertem Corpus von Rechtsprechung und Gesetzestexten, in medizinischen Fachdatenbanken mit kuratierten Studien, beim Coding mit formalen Systemen und eindeutigen Regeln. Dort, wo Fragen und Thesaurus präzise aufeinander abgestimmt sind, wo Retrieval-Augmented Generation (RAG) den Zugriff auf verifizierbare Quellen sichert, bleibt die Konfabulation eingegrenzt.

Bei der Generierung von Bild- und Toninhalten, generell bei fiktionalen Inhalten, stellt sich die Frage nach Wahrheit nicht. Dort geht es nicht um Erkenntnis, sondern um ästhetische Plausibilität – um Stil, Stimmigkeit, emotionale Wirkung.  Ein KI-generierter Roman muss nicht wahr sein, der Reiz generierter Bilder liegt oft gerade in ihrer physischen Unmöglichkeit.
Die Probleme sind andere, Urheberschaft, Originalität, die Frage, ob kreative Leistung ohne intentionale Struktur überhaupt als solche gelten kann.
Die Problematik – die Konfabulation von Fakten, die Vermischung von Wissen und Spekulation – betrifft primär den Einsatz von KI als Wissens-Intermediär: dort, wo sie Suchmaschinen ersetzt, wo sie Produktrecherchen durchführt, wo sie auf Fragen antwortet, bei denen ein Wahrheitsanspruch besteht.

Die Sprachmaschine lässt die Suchmaschine nicht verschwinden, aber hat sie verändert. Google als dominierende Suchmaschine ist nicht mehr nur ein Index, sondern hat sich durch KI-Übersichten (AI Overviews) selbst zu einer synthetisierenden Antwortmaschine entwickelt. Über 60% der Suchanfragen führen mittlerweile nicht mehr zu Klicks auf eine externe Website*.
Das bedeutet ein Ende der gewohnten Intermediarität im Netz, in der Suchmaschinen zu den Anbietern von – meist SEO-optimierten – Inhalten vermittelten. Nutzer geben sich stattdessen mit einer generierten Kurzfassung zufrieden. Zero-Klick-Recherchen entziehen den eigentlichen Urhebern dieser Inhalte die nötige Aufmerksamkeit und damit oft die wirtschaftliche Basis. Inhalte werden destilliert, ohne deren Produzenten zu kompensieren. 

Vor gut einem Monat (5.12.2025) hat Anthropic, die Betreiberfirma der KI Claude Ergebnisse einer von KI-Agenten ausgeführten Studie online gestellt.  Insgesamt sind  1250  Interviewprotokolle zur Nutzung online verfügbar, Bereits der Einblick in eine kleine Auswahl macht deutlich, was funktioniert und was nicht.
KI funktioniert dort, wo strukturierte Aufgaben (Code, Lückentexte, Zusammenfassungen) mit klaren Anweisungen kombiniert werden. Sie scheitert, wo Ton, Stil, emotionale Intelligenz oder faktische Präzision gefordert sind.
Intentionalität ist der Knackpunkt. Menschen erwarten von KI, dass sie ihre Intention versteht und automatisiert umsetzt – so wie sie es von einem kompetenten Mitarbeiter erwarten würden. Genau das kann die KI nicht leisten. Sie hat keine Vorstellung davon, was gemeint ist, nur davon, was statistisch wahrscheinlich folgt.
Es ist nicht einmal ein rein technisches Problem. Das Verständnis der Intention und noch mehr die Ausführung in ihrem Sinne, zählt zu den höchsten Anforderungen in jeder Zusammenarbeit.
Die Erwartung, Aufgaben zu delegieren statt zu assistieren, führt systematisch zu Enttäuschungen.
In den gesichteten Interview-Beispiele finden sich durchweg Hinweise darauf. Die Texterin erhält konfabulierte Montessori-Beispiele, wenn es um Kindergärten geht. Der Architekt bekommt 100 Zeilen funktionierenden Code in kurzer Zeit – aber bei E-Mails wird der Ton nicht getroffen. Die Lehrerin generiert maßgeschneiderte Geschichten für Schüler, scheitert aber selbst beim KI-gestützten Französischlernen. Der Student lässt sich Fachbegriffe erklären, ist aber überzeugt, dass KI nie den emotionalen Vorteil eines menschlichen Arztes” ersetzen kann. Die KI liefert statistische Plausibilität, versteht aber nicht die Intention.

Kreative nutzen KI, um ihre Produktivität zu steigern, trotz der Kritik ihrer Kollegen und Zukunftsängsten. Sie müssen sich sowohl mit der unmittelbaren Stigmatisierung des KI-Einsatzes in kreativen Gemeinschaften als auch mit tieferliegenden Sorgen über wirtschaftliche Verdrängung und den Verlust der menschlichen kreativen Identität auseinandersetzen. **
Wissenschaftler wünschen sich eine Partnerschaft mit KI, vertrauen ihr aber noch nicht für die Grundlagenforschung. Sie äußerten einhellig den Wunsch nach KI, die Hypothesen generieren und Experimente entwerfen kann. Derzeit beschränken sie deren Einsatz jedoch auf Aufgaben wie das Verfassen von Manuskripten oder das Debuggen von Analysecode.**

Der Nutzer bleibt verantwortlich für die Angemessenheit (Appropriateness) des KI-Einsatzes. KI kann nicht entscheiden, wann ihre Konfabulation produktiv ist (bei kreativer Exploration) und wann sie problematisch wird (bei Faktenfragen mit Wahrheitsanspruch). Die Urteilskraft muss beim Menschen bleiben – und setzt voraus, dass er erkennt, wann er es mit Konfabulation zu tun hat.

KI kann ein Werkzeug für divergentes Denken sein. Sie öffnet den Raum für multiple Lösungswege, generiert Varianten, zeigt Möglichkeiten. Die Konvergenz – die Entscheidung für eine Lösung, die Bewertung der Angemessenheit – bleibt Aufgabe des Menschen. Die Maschine exploriert, der Mensch entscheidet.
Strukturierung, Argumentation, Synthese – Kernaufgaben der Wissensarbeit – werden zunehmend zwischen Mensch und Maschine ko-produziert. Die Frage ist nicht mehr, ob KI Teil intellektueller Arbeit wird, sondern wie diese Ko-Produktion gestaltet werden soll – und wer die Kontrolle behält.

Wer die Sprachmaschine nutzt, produziert meist mehr, schneller, glatter. Wer sie nicht nutzt, gerät oft ins Hintertreffen. Und weil (fast) alle sie nutzen, steigt das Tempo weiter. Die Maschine setzt den Takt – der Mensch passt sich an. Nicht unbedingt Fortschritt, oft ein Doping-Effekt. Die versprochene Zeitersparnis mündet in höhere Erwartungen an Geschwindigkeit und Volumen.
Man sollte nicht vergessen, dass der Sinn kreativer Arbeit in ihrer Wirkung auf Menschen liegt. Wenn sie beim Leser, Betrachter, Hörer etwas auslöst, hat sie sich oft schon gelohnt. KI kann für viele Zwecke eingesetzt werden, aber wir sollten entscheiden können, wann und in welchem Sinne.
Keine  Technik ist unschuldig – und KI ist es auch nicht.

vgl.: . Carsten Brosda: Bevor die KI unsere Demokratie verschlingt FAZ. 3.01.26 – *Impact of Generative AI on Search Traffic and Content Visibility. In : beanstalkim.com März 25 – **Anthropic: Introducing Anthropic Interviewer: What 1,250 professionals told us about working with AI – vgl. auch. DocCheck Flexikon: Konfabulation.   Roberto Simanowski:   Sprachmaschinen – eine Philosophie der künstlichen Intelligenz . C.H. Beck 2025,  288 S.   (Rezension) – Klaus Burmeister: .Ein Selbstversuch zwischen kognitiver Bereicherung und stillem Verlust. LinkedIn 25.11.2025.



Sprachmaschinen – eine Philosophie der künstlichen Intelligenz – (Rez.)

Jede Technik hat die Macht, ihren ahnungslosen Nutzern die eigene Logik aufzudrängen – so beginnt es im Klappentext.  Zitierfähige Sätze und wirkungsvolle Sprachbilder gibt es zuhauf in  Sprachmaschinen – eine Philosophie der künstlichen Intelligenz von Roberto Simanowski.
Drei Jahre seit der Verbreitung von generativer KI tritt die Frage nach ihrer Wirkung auf unser Denken in den Vordergrund. Large Language Models wie ChatGPT, Claude, Gemini sind nicht mehr Zukunftstechnologie, sie durchdringen inzwischen die kognitiv-kreativen Bereiche unseres Alltags.
Roberto Simanowski ist Literatur- und Medienwissenschaftler, Medienphilosoph und Autor (Todesalgorithmus. Das Dilemma der künstlichen Intelligenz, 2020). Bereits 1999 war er Gründer von Dichtung-Digital, einem internationalen Online-Journal für Kunst und Kultur. Mit der digitalen Entwicklung und ihrer gesellschaftlichen und kulturellen Wirkung ist er somit bestens vertraut.
Simanowski analysiert einen alltäglichen Souveränitätstransfer zwischen Mensch und Maschine (17). Nach welchen Standards geschieht das? Was geht durch die Automatisierung verloren? Von ‘KI’ spricht er selten; sein zentraler Begriff, die Sprachmaschine, ist bewusst gewählt. Der Begriff markiert eine Algorithmisierung der Kommunikation.

Welche Art von Medium ist die Sprachmaschine? Simanowski beschreibt sie als eine globale Technologie, die als riesiger Umschlagplatz von Werten fungiert (156). Damit verbunden ist eine zentrale Konfliktfrage der Globalisierung: Gleicht diese Technologie die Kulturen einander an, indem sie allen die gleichen Werte vermittelt, oder gleicht sie sich selbst den jeweiligen Kulturen an?
Ihre Funktion ist die eines Intermediärs: Sie verbindet den Nutzer mit einem mit Trainingsdaten gefüllten Thesaurus, dem gesammelten Wissen und  kreativen Leistungen der Welt,  der alles enthält, was sie kriegen kann. Die Maschine zitiert nicht daraus, sondern arbeitet damit. Sie übersetzt Daten in natürliche Sprache, vermittelt zwischen Anfrage und generierter Ausgabe. Dabei produziert sie das, was statistisch am anschlussfähigsten erscheint.

Das große Versprechen der KI-Revolution ist die Automatisierung kognitiver und kreativer Prozesse – auf der Basis von Big Data und auf Bezahlbasis. Simanowski beschreibt die Nutzerlogik: Sie kaufen die Kompetenz, die sie nicht haben und auch nie so effektiv entwickeln könnten, wie es die Sprachmaschine tut (vgl. S. 58).

Die Basis all dessen ist das Training der Sprachmaschine mit möglichst vielen verfügbaren Daten, ein heftig umstrittenes Thema (vgl. Der Wert von Kultur- und Wissensarbeit im Zeitalter von KI).  Simanowskis Haltung dazu ist relativierend, was mich überrascht. Er verweist auf transformative Verwendung und das Fair-Use-Prinzip (S. 57), auf das sich Betreiber beim Training der Modelle berufen können. Den Widerstand von Autoren gegen die unentgeltliche Nutzung ihrer Werke, hält er für verständlich, aber für kontraproduktiv. Ihre Verweigerung senke lediglich die Standards der Sprachmaschinen-Outputs, während ihre Mitwirkung die Qualität heben würde (vgl. S. 59).

Simanowskis Argument beruht auf einer Analogie. Wir alle synthetisieren das, was wir geistig aufnehmen, und geben das Ergebnis – einen Text, ein Bild, einen Song – in die Welt zurück, unter unserem Namen und gegebenenfalls mit Urheberanspruch und finanziellem Interesse (S. 57). Wenn wir Texte schreiben, haben wir andere gelesen; wer malt, hat andere Bilder gesehen; wer komponiert, hat andere Musik gehört. Was Menschen daraus machen, fällt unterschiedlich aus – abhängig von Intention und Ambition. Oft bleibt es bei Reproduktion, manchmal entsteht etwas Neues, evtl. sogar Kunst.

Lässt sich diese Ebene individueller kreativer Synthese mit dem industriellen Ausmaß der KI-Konzerne vergleichen? Die Analogie verdeckt mehr, als sie erhellt. Tech-Konzerne privatisieren gratis gesammelte kulturelle Inhalte (Training) und monetarisieren anschließend die Abhängigkeit der Nutzer von den resultierenden Modellen (Bezahlung). Die Infrastruktur der kognitiven Automatisierung wird somit monopolisiert – ein Vorgang, der mit massiven Machtasymmetrien einhergeht.

Simanowski versteht sein Buch nicht als systematische Abhandlung, sondern als einen explorativen Denkprozess. Er selber nennt es vagabundierendes Denken. Es geht um Einsichten, aus denen sich etwas machen lässt, sein Antrieb ist intellektuelle Neugier (vgl. S. 43).
Die Sprachmaschine bestätigt ihn: Diesem Text geht es nicht um Bullet Points, sondern um Denkfiguren –  so das Urteil von ChatGPT über das Buch (S. 43).
Die politische Ebene wird zunächst ausgeblendet (vgl. Profil-Interview, Textauszug unten). Erst an späterer Stelle (188ff) werden politische Bezüge weiter ausgeführt. Politische  Gestaltungsmöglichkeiten werden nicht weiter behandelt – und sind wohl auch thematisch nicht vorgesehen. Simanowskis Absicht ist eine Erkundung, keine Agenda. Die Sprachmaschine erscheint so neutraler, als sie ist.

Die Exploration steht im Zeichen von fünf Fragen, die sich in den fünf Kapiteln des Buches entfalten. Damit entsteht zwar keine Systematik, aber eine Kartierung von Wirkungen der Sprachmaschine:  Was ändert sich, wenn der Sender des Textes eine Maschine ist ? Was geschieht, wenn Sprache nur noch als Statistik behandelt wird? Wer gibt der Sprachmaschine mit welchem Mandat welche Werte vor? Wie verändert sich die Souveränität des Menschen, wenn er sich einer Sprachmaschine bedient? Warum ist die Entwicklung der Sprachmaschine trotz ihrer Risiken unausweichlich? (40)
Autorenschaft
, Rechenfehler, Werte-Export, Entmündigungsschichten und Fortschrittsfalle sind die Titel der Kapitel und gleichzeitig die Felder der Explorationen. Sie knüpfen jeweils an Teildisziplinen der Philosophie an: Sprach-,  Erkenntnis-, Moral- und politische Philosophie, Geschichtsphilosophie.

Das Kapitel zur Autorenschaft  – Wen kümmert es, wer aus der Sprachmaschine spricht? führt in die sprachphilosophische Tradition. Simanowski reiht die Klassiker auf: Herders Sprache als Abdruck der Seele, Heideggers Die Sprache ist das Haus des Seins, Wittgensteins Die Grenzen meiner Sprache bedeuten die Grenzen meiner Welt. Diese Sätze sind mehr als blosse Referenzen – sie markieren eine fundamentale Einsicht. Sprache konstituiert Subjektivität, erschließt Welt, begrenzt und ermöglicht Denken. Wenn Sprache uns prägt und unsere Welt erschließt, dann ist die maschinelle Sprache nicht nur ein Werkzeug, sondern ein Hausfriedensbruch, der in unser Sein eindringt, um zu bleiben (17). 
Einen theoretischen Angelpunkt bildet Roland Barthes Essay Der Tod des Autors (1967), ein Schlüsseltext des Poststrukturalismus und der modernen Literaturtheorie.Simanowski fasst ihn so zusammen: Der Mensch ist nicht souveräner Eigentümer seiner Äusserungen. Vielmehr sind diese das Ergebnis der Diskurse, an denen er teilhat. Jeder Autor ist das, was er gelesen hat; er ist nicht die Quelle seiner Worte, sondern eine Art Mixer oder Durchlauferhitzer (50).
Die Sprachmaschine verschmilzt nicht nur einzelne gelesene Texte, sondern synthetisiert das gesamte verfügbare Textkorpus. Generiert sie damit einen Welttext (61) – eine universale, autorlose,  statistisch generierte Erzählung der Menschheit? KI-Texte können die perfekten Texte ohne Autor sein, reine statistische Reproduktion.

Das Kapitel Rechenfehlerdas mathematische Denken der Sprachmaschine knüpft an die Erkenntnisphilosophie an. Es geht um die Rechenprozesse hinter den Texten – ihre allmähliche Verfertigung beim Rechnen,  um den Vektorraum, in dem Token zueinander in Beziehung stehen. Die Anschlusswahrscheinlichkeit lässt sich regulieren und damit der Stil temperieren. Schliesslich auch um einen drohenden Kipppunkt: Wenn die Sprachmaschine zur Inzest-KI  (101) wird und nur noch solche Daten verarbeitet, die sie selbst bereits produziert hat – eine Endlosschleife statistischer Selbstreferenz.

Umfangreichstes Kapitel (109-184) ist Werte- Export – Die moralische Zweiterziehung der Sprachmaschine, mit Bezug zur Moralphilosophie. Hier geht es um den oben genannten Umschlagplatz von Werten, um die politisch-kulturellen Auseinandersetzungen  darüber, auf welche Wertvorstellungen das Trainingsmaterial der Sprachmaschine  ausgerichtet wird.
Export verweist auf die Dominanz eines Zentrums, das für universelle Werte steht – oder eben doch bloß für westliche Werte bzw. ihre Gegenpositionen. Es geht darum, welche sozialen Welten gespiegelt werden sollen – und wessen Normen als selbstverständlich gelten. Mit KI verstärkt sich die Hegemonie des Globalen Nordens: Technologische Dominanz sichert kulturellen und politischen Einfluss.
Was in den Trainingsdaten der Sprachmaschine vorherrscht, bestimmt  ihren Output,  und ist  das Abbild einer statistischen Realität.
Die moralische Zweiterziehung der Sprachmaschine ist derzeit Schauplatz eines politischen Kulturkampfes in den USA – zwischen Wokeness und ihren Gegnern. Auseinandersetzungen, die bis an die Stellschrauben des Finetunings und Post-Trainings reichen. Welches Alignment ist zulässig? Wie weit darf man den Output in erwünschte Richtungen lenken?
Es wird deutlich, dass wenige privatwirtschaftliche Unternehmen zentrale Kommunikationsmittel und Zugänge zu Wissen kontrollieren.

In Kapitel Entmündigungsgeschichtewenn die Sprachmaschine uns zu sehr zu Diensten ist kommen politische und kulturkritische Fragen zum Zuge. KI ist ein zentraler Faktor einer Machtverschiebung zwischen staatlichen und wirtschaftlichen Systemen – oder besser gesagt, zwischen öffentlich kontrollierten und gewinnorientierten Systemen.
Angesprochen werden die Gefahr von Oligarchien, aber auch der Erosion von menschlicher Urteilskraft und intellektuellen Autonomie durch die Auslagerung kognitiver Erfahrung: Das Gehirn bleibt immer mehr hinter dem zurück, was es ohne Sprachmaschinen leisten könnte(210) -Schliesslich auch das Wohlverhalten der K: Warum ist sie immer so nett?

Im letzten Kapitel Fortschrittsfalle geht es um die Unausweichlichkeit der Sprachmaschine, um eine Eigendynamik, der man sich kaum entziehen kann. Künstliche Intelligenz ist gleichzeitig Triumph und Kränkung menschlicher Schöpfungskraft  Technology happens because it is possible – einverstanden – aber wem gehört sie? 

Das Fazit des Autors: Wir brauchen Philosophische Medienkompetenz – Bild: unsplash+

Simanowskis Fazit zum Abschluss ist die Forderung nach einer spezifischen KI-Kompetenz (261ff), einer  Philosophischen Medienkompetenz, Eine Kompetenz, die über die  Nutzungskompetenz hinausgeht. Es muss eine Medienreflexionskompetenz sein, die es dem Nutzer ermöglicht, die Logik der Technik zu erkennen und für sich zu nutzen, und sich nicht von ihr beherrschen zu lassen.
An anderer Stelle nennt er KI als möglichen Auslöser eines neuen Digital Divide, als digitale Kluft – für die einen führt der Umgang mit ihr zur Verblödung, für die anderen wird es produktiv.

Das Buch hält das, was der Autor ankündigt – eine Exploration entlang von  Fragen. Er nennt es selber vagabundierendes Denken.  Mit den Fragen entsteht dann eben doch eine Art Systematik, zumindest Kartierung  der Wirkungen. So leistet das Buch einen wesentlichen Beitrag zur aktuellen Debatte.
Die Frage, ob KI  demokratische und professionelle Fähigkeiten stärkt oder untergräbt, treibt nicht nur Simanowski um. Seine Beobachtung einer erodierenden Souveränität, sogar kognitiven Verlusten, und der Monopolisierung von Wissenszugängen findet sich in vielen zeitgenössischen Beobachtungen wieder. Ein aktueller Essay des Zukunftsforschers Klaus Burmeister beschreibt dies als Selbstversuch zwischen kognitiver Bereicherung und stillem Verlust. Burmeisters Perspektive ergänzt Simanowskis philosophische Grundlegung – zeigt, dass diese Debatte weiter geführt wird.

Die teilweise Ausblendung der politischen Ebene hat mich zunächst irritiert. Die Diskussionen der vergangenen Monate waren von genau dieser Frage geprägt: den Effekten der Technologie selbst und den Machtstrukturen, die sie hervorbringt. Hier zeigen sich Parallelen zur Entwicklung der sozialen Medien: technische Innovation einerseits, oligarchische Infrastruktur andererseits. Dass Simanowski diese Ebene erst spät und knapp einbezieht, habe ich als Leerstelle empfunden. Sie erklärt sich aus seiner Absicht der Erkundung, nicht des Agenda-Setting – bleibt aber ein Thema, das in der öffentlichen Debatte weitergeführt werden muss.

Roberto Simanowski:   Sprachmaschinen – eine Philosophie der künstlichen Intelligen . C.H. Beck 2025,  288 S.  . Klaus Burmeister: .Ein Selbstversuch zwischen kognitiver Bereicherung und stillem Verlust. LinkedIn 25.11.2025.

zu *: In einem Interview mit der österreichischen Zeitschrift Profil erklärt Simanowski: ‘Wir können die Profitgier der Plattformen und Unternehmen geißeln und aufdecken. Das hat mich aber weniger interessiert, denn auch dahinter steckt eine gewisse Logik, der diese Konzerne selbst nicht entkommen.’ Die Alternative wäre, ‘das marktwirtschaftliche System in Frage zu stellen’ – doch die sei ‘vor 35 Jahren weggebrochen’. aus: Was die Maschinen sprechen: Roberto Simanowskis KI-Philosophie In:  Profil Nr 45/2025

 



KI als Strukturverstärker – Macht, Algoritmen und Autorenschaft

Bild: Steve-johnson-KI .unsplashed+

KI ist Gamechanger,  darüber sind sich fast alle einig. Darüber wie sich die Spielregeln ändern sollen, nicht.
Einstellungen und Haltungen zu KI gehen weit auseinander, die Diskussionen verlaufen meist innerhalb bestehender Gruppierungen, die den jeweiligen  Deutungslogiken folgen.

Gründe dafür, dass sich die Diskurse kaum treffen, gibt es viele. KI greift in zahlreiche gesellschaftliche Funktionssysteme ein: Medizin, Recht, Bildung, Produktion, Werbung, kreative Kreation und so viele mehr …  Ihr Einsatz, ihre Nutzung folgt einer  jeweils eigenen Logik.
Grundsätzlich tritt KI in zwei Formen auf: als sichtbare, aufrufbare Chatbots wie ChatGPT, Claude Sonnet oder Bildgeneratoren, wie Midjourney und  Googles Nano Banana/ Gemini 2.5 Flash Image und als im Hintergrund in Prozesse eingebettete Algorithmen, die Abläufe präemptiv steuern.
Konzerne sehen in KI ein Effizienz-Tool, das Abläufe beschleunigt und Arbeitskosten reduziert. Wirtschaftsförderer sehen in ihr einen Baustein der Infrastruktur, der Technologiesouveränität erfordert. Anwender erleben sie oft spielerisch.
Andere sehen KI in der Nähe eines autoritären Machtapparats oder als einen Angriff auf geistige Autonomie und das Prinzip der Autorenschaft.

Chatbots erlauben es uns, mit ihnen zu experimentieren, ihre Funktionsweise zu erkunden, sie für eigene Zwecke zu nutzen oder auch zu verwerfen. Sie sind sichtbar, direkt erfahrbar und eröffnen Spielräume zur Einübung neuer Praktiken. Sie können als bottom-up- Praxis verstanden werden. Im besten Falle als Werkzeuge der Co Creation.
Eingebettete Algorithmen
hingegen sind unsichtbar in Prozesse integriert. Sie lassen sich nicht einüben, sondern wirken strukturell – als Teil einer Macht-und Steuerungsarchitektur, die Entscheidungen präemptiv vorgibt, noch bevor wir selbst eingreifen können. Sie können als top-down Praxis verstanden werden. 

Für beide Formen gilt aber, dass sie Interessen spiegeln. Chatbots ebenso wie eingebettete Algorithmen liefern nicht neutral, sondern genau das, was in ihren Vorgaben, Trainingsdaten oder politischen Entscheidungen angelegt ist – im besten Fall also auch das, was demokratisch beschlossen wurde.
LLMs basieren auf einer oft urheberrechtlich problematischen kulturellen Extraktion: LLM systems harvest everything that can be made digital, and then use it to train corporate AI models (Kate Crawford, 2023)

KI ist zwar seit fast drei Jahren Hype und  die meisten Menschen sind mit ihr in Berührung gekommen, dennoch fehlt der Diskussion die inhaltliche Breite, die ihr zukommt.
Die öffentlichen Debatten drehen sich überwiegend um die sichtbare, dialogische Oberfläche, die wir mit einigem Lernaufwand sinnvoll und für uns nützlich gestalten können.  Die unsichtbare Allgegenwart der eingebetteten Algorithmen, die Prozesse steuern und Entscheidungen präemptiv beeinflussen, bleibt im Hintergrund.
Frage ist: Wie können Prozesse gestaltet werden, ohne von ihnen überrollt zu werden? Ohne dass sich strukturelle Macht weiter konzentriert?
KI ist in Machtstrukturen eingebunden. Ganz offensichtlich können  eingebettete Algorithmen präemptiv, vorentscheidend im – selektierenden-  Sinne der jeweiligen Betreiber verwendet werden.
Es fehlt eine gesellschaftliche Bewegung, die Machtstrukturen thematisiert, ohne gleich die ganze Technologie abzulehnen. Die Thematisierung eines neuen, smarten Faschismus – wie bei Rainer Mühlhoff ist richtig. Ein alleiniger Rückzug darauf kommt aber einer splendid isolation gleich.
KI-Technologien wurden ursprünglich dazu entwickelt,  aufwendige Analysen zu erleichtern und uns bei komplexen Aufgaben zu unterstützen. In den letzten Jahren haben sie sich zu nahezu omnipräsenten Begleitern  entwickelt. KI-basierte Systemen sind so sehr mit unserer Wirklichkeit verwoben, dass wir uns oft nur noch am Rande bewusst sind, wie stark sie unsere Entscheidungsprozesse beeinflussen.
Zudem kratzt KI  an dem menschlichen Selbstverständnis als kreativem und intellektuellen Wesen.

Von Frank Witt  stammt der Begriff  von  KI  als Strukturverstärker. KI ist bzw. wirkt als eine soziotechnische Konstellation: Weder als neutrale Technik noch als autonomes System, sondern als ein Ensemble aus Algorithmen, Daten, Institutionen und Akteuren. KI reproduziert nicht nur bestehende gesellschaftliche Tendenzen, sondern verstärkt sie in vielen Fällen. KI beschleunigt, wirkt als Verstärker von Effizienz. Das gilt für  Überwachungsprozesse ebenso wie für kreative Prozesse. KI kann gesellschaftliche und ökonomische Macht verstärken – ihre Anwendung und Wirkung gehören in den öffentlichen Diskurs.
KI zeigt die ganze Ambivalenz mächtiger Technologien: Sie kann ebenso kreative Prozesse bereichern wie demokratische Diskurse untergraben, Wissensarbeit unterstützen wie  Desinformationskampagnen automatisieren. Sie kann ganze  Trollfabriken steuern oder als cocreatives Werkzeug genutzt werden.

Vor rund 25 Jahren, um die Jahrtausendwende, setzte sich das Internet in der Breite durch. Blicken wir  zurück,  gab es damals einen ersten Anlauf zu einem Internet der Konzerne, das heute oft vergessene Internet der Portale.
Zentrale Portale sollten den Einstieg ins Internet kontrollieren, Walled Gardens statt offener Suche und Navigation- ein klassisches Gatekeeper– Modell, top-down konstruiert. Portal-Websites dienten als zentrale Startseiten, über die Dienste wie Nachrichten, E-Mail, Chats, Shopping, Online-Banking gebündelt werden sollten.  AOL, Yahoo, Compuserve, Lycos, aber auch MSN (Microsoft Network)   und t- online waren die Protagonisten.

Bild: unsplash +

Dagegen formierte sich eine breite Bewegung für ein freies Internet ohne Gatekeeper mit offenen Standards und der Vision einer vernetzten Gesellschaft.  Das Modell der  proprietären Portale der Konzerne scheiterte.
Der Erfolg wirkte einige Jahre nach  und gab basisdemokratischen Strömungen Auftrieb. Man sprach von  Netzkultur – gemeint war ein von einer Community getragener  Standard.
Die schliesslich erfolgreiche Beherrschung  der digitalen Welt durch quasi-Monopole, gelang auf anderem Wege- beschrieben u.a. von Shoshana Zuboff (Überwachungskapitalismus) und Michael Seemann (Macht der Plattformen),  oft als  Landnahme durch Big Tech bezeichnet. Aus dem partizipativen Web 2.0  war wieder ein Internet der Konzerne – jetzt BigTech genannt –  geworden – mit neuen Formen von Kontrolle und Gewinnerzielung. .
Generative KI ist ein Kind dieses Social Web. Ohne dessen Datenfülle und die Digitalisierung des verfügbaren menschlichen Wissens gäbe es sie nicht. Die systematische Verknüpfung, Verdichtung und Automatisierung dieses Wissens war technisch eine logische Weiterentwicklung der Digitalisierung.
So wird technologische Disruption von quasi-Monopolen als Triebkraft gesellschaftlichen Fortschritts inszeniert – ein Fortschritt, der zunehmend mit neuen Formen des Autoritarismus in Verbindung gebracht wird.

Der Filmkomponist Matthias Hornschuh beschreibt in seiner Schrift Wir geben uns auf. KI, Kultur und die Entwertung der Wissensarbeit (die in dieser Woche als Buch erscheint, s.u.)  eine  systematische Entwertung kultureller Arbeit. Einer auf schnell erfassbare Oberflächenreize optimierten Welt setzt er den Wert kultureller Durchdringung entgegen.
An anderer Stelle hebt er das Prinzip der Autorenschaft hervor, zitiert dabei den Kunsttheoretiker Bazon Brock: Menschen, hinter denen nichts steht, kein Papst, kein Militär, kein garnichts, und die trotzdem angehört werden, weil das, was sie sagen, interessant und von Wichtigkeit ist, aufgrund ihrer Fähigkeit, Welterkenntnis zu eröffnen.
Wenn der Zufluss neuer, innovativer und vielfältiger Inhalte zu versiegen droht, dann müssen sich Staat, Gesellschaft und Volkswirtschaft auf eine geistige Dürre einstellen. Es stellt sich die nicht geringe Frage, wie eigentlich in Zukunft das Neue in die Welt gelangen soll.
Auch KI- Kritiker wie Rainer Mühlhoff und Kate Crawford  sprechen  an einigen Stellen  von entmenschlichender Technologie  – gemeint ist Vereinnahmung von Subjektivität durch technologische Systeme.

KI kann Ähnliches im Verschiedenen erkennen, aber  nicht intentional Muster brechen oder völlig neue konzeptionelle Verbindungen schaffen, die jenseits statistischer Wahrscheinlichkeiten liegen. KI ist gut darin, aus Trainingsdaten erworbenes Wissen anzuwenden,   logisches Denken jenseits erlernter Muster fällt ihr schwer. Die spannendsten Momente entstehen nicht durch perfekte Beherrschung von Mustern , sondern durch deren überraschende Brechung. Es setzt voraus, dass jemand will, dass etwas anders läuft – eine Intention, die KI allein nicht haben kann.

Der KI-Debatte fehlt bislang eine kulturelle Aneignung, eine tiefer gehende ästhetische Durchdringung. Etwas wie Andy Warhols Pop Art, die Konsumkultur kulturell verfügbar machte. Eine KI-Kunst, die weder die Technologie dämonisiert noch vergötzt, sondern ihre Möglichkeiten und Grenzen kreativ auslotet. So kann aus einer technologischen und politisch polarisierten Debatte eine gesellschaftliche werden.

Das Web 2.0 sollte alle zu Autoren machen, das KI- Web macht alle zu Objekten einer Praxis der Extraktion. Wer wird die Prozesse der Zukunft gestalten – und wer lässt sich von ihnen gestalten? – Technologie wird erst durch kulturelle Aneignung zu gesellschaftlicher Realität.

 

vgl.  Holger Schmidt:  Revolution der Arbeitswelt: Bots statt Folien. FAZ 3.09.25.  *Matthias Hornschuh:. Wir geben uns auf: KI, Kultur und die Entwertung der Wissensarbeit – 9/25; 96 S.  Matthias Koch & Patrick Mennig: Plattformökonomie am Ende? Welchen Einfluss haben KI, Metaverse und Nachhaltigkeit auf digitale Geschäftsmodelle?  Vgl. auch Frank Witt: Stille Umbrüche – Was KI wirklich verändert. (8/25) . und Künstliche Intelligenz: Transformation und Krisen in Wirtschaft und Gesellschaft  (5/25) 



Stille Umbrüche  – Was KI wirklich verändert. Rückblick auf das Autorengespräch mit Frank Witt

Buchvorstellung und Diskussion

Am letzten Donnerstag (28.08) hatten wir in den Kölner Startplatz eingeladen: Stille Umbrüche  – Was KI wirklich verändert, eine Diskussion  mit dem Autor Frank Witt.

Sein Buch  Künstliche Intelligenz: Transformation und Krisen in Wirtschaft und Gesellschaft war im Frühjahr diesen Jahres erschienen. Zu diesem Buch gab es auch in diesem Blog eine Rezension, eine weitere von Gunnar Sohn.
Seit 2023 ist der Startplatz  AI Hub  offizielles Innovationszentrum für die deutsche KI-Community in Köln und Düsseldorf. Somit eine erste Adresse für Veranstaltungen dieser Art.

Vorweg: Was der Veranstaltung an Masse fehlte, machte sie durch Klasse wett: Die engagierte Beteiligung und die beeindruckende technische Kompetenz der Teilnehmer führten dazu, dass die Diskussionen knapp zwei Stunden über den vorgesehenen Zeitrahmen hinausgingen.

Bereits die konzeptionelle Ausgangslage der Diskussion war  bemerkenswert und ging über die gängigen Muster hinaus: Die Grundidee einer wirkmächtigen künstlichen Intelligenz hat nur wenig mit klassischen programmierten Computern gemein und orientiert sich vielmehr an der Funktionsweise biologischer Gehirne. Wenn sich diese durch mathematische Modelle im Parallel-Computing funktional äquivalent simulieren lässt, dann kann KI prinzipiell auch zum eigenständigen Akteur in der Gesellschaft werden – eine These, die weit über technische Innovationsdebatten hinausweist.

Der Vortrag bot einen differenzierten Blick auf die tiefgreifenden Umbrüche, die mit der Entwicklung und Integration von Künstlicher Intelligenz (KI) einhergehen. Im Zentrum stand die These, dass KI nicht nur eine technische, sondern vor allem eine gesellschaftliche Herausforderung darstellt.

Frank Witt, promovierter Philosoph und systemtheoretisch geschulter Beobachter technischer Entwicklungen, machte von Beginn an deutlich: Es geht nicht um Technikoptimismus oder Fortschrittsgläubigkeit, sondern um die kritische Reflexion eines Wandels, der bereits in vollem Gange ist. KI verändert nicht nur Produktionsweisen oder Kommunikationsformen, sondern greift tief in gesellschaftliche Machtverhältnisse und institutionelle Strukturen ein.

Strukturverstärkende Effekte von KI.

Witt beschrieb KI als soziotechnische Konstellation: Weder als neutrale Technik noch als autonomes System, sondern als ein Ensemble aus Algorithmen, Daten, Institutionen und Akteuren. Er zeigte, dass KI bestehende gesellschaftliche Tendenzen nicht einfach nur reproduziert, sondern in vielen Fällen sogar verstärkt:

  • In der Wirtschaft führt der Einsatz von KI zu neuen Rationalisierungsstrategien, zu Effizienzgewinnen, aber auch zur Prekarisierung von Arbeit.
  • Im Sozialen wird die Logik der Bewertung, Selektion und Überwachung durch algorithmische Systeme forciert.
  • In Organisationen können durch KI neue Formen von Kontrolle entstehen, die wenig Raum für Eigenverantwortung und Gestaltung lassen.

KI ist also nicht nur Werkzeug, sondern auch Strukturverstärker. Sie wirkt nicht nur auf der Ebene der Funktionen, sondern auch auf der Ebene der gesellschaftlichen Leitbilder.

Chancen, Risiken und der schmale Grat der Gestaltung

Die Diskussion bewegte sich entlang des Spannungsfeldes zwischen Innovationspotenzial und gesellschaftlicher Verantwortung. Witt betonte, dass KI große Möglichkeiten birgt: von der Automatisierung monotoner Aufgaben bis zur besseren Auswertung komplexer Daten. Gleichzeitig warnte er vor einem blinden Technikimport:

Die Digitalisierung wird oft als alternativlos dargestellt. Doch wir sollten fragen: Welche Gesellschaft wollen wir gestalten? Und welche Rolle soll Technik darin spielen?

Gerade im Bildungsbereich sei eine kritische Auseinandersetzung mit KI notwendig. Nicht nur die Techniknutzung, sondern die Reflexion über ihre Wirkmechanismen, impliziten Normen und gesellschaftlichen Auswirkungen sei entscheidend.

Kritik an Digitalisierungspolitik und den überformten Fortschrittsnarrativen

Witt übte deutliche Kritik an politischen Programmen zur Digitalisierung. Er sprach von einer “Verengung des Fortschrittsbegriffs”:

  • Digitalisierung werde vorrangig als Standortpolitik verstanden.
  • Die Frage nach Gemeinwohl, Partizipation und sozialer Gerechtigkeit werde zur Nebensache.

Dabei, so Witt, wäre gerade jetzt eine breite gesellschaftliche Debatte über die Zielsetzungen und Rahmenbedingungen digitaler Transformation notwendig.

Der Begriff der “Stillen Umbrüche”

Im Zentrum des Buches steht der Begriff der “Stillen Umbrüche”. Damit meint Witt keine plötzlichen Revolutionen, sondern die allmähliche, oft kaum bemerkte Veränderung grundlegender Verhältnisse:

  • Die Aufweichung klarer Erwerbsbiografien.
  • Neue Abhängigkeiten in der Plattformökonomie.
  • Die Verschiebung von Entscheidungsmacht zu Unternehmen und Algorithmen.

Diese Veränderungen geschehen oft leise, aber nachhaltig. Sie verändern das Verhältnis von Mensch, Arbeit und Gesellschaft langfristig.

KI und Bildung: Jenseits der Anpassung

Ein besonderer Fokus lag auf dem Bildungssystem. Witt forderte, Bildung dürfe sich nicht in der Vermittlung digitaler Kompetenzen erschöpfen. Vielmehr gehe es um:

    • kritisches Denken,
    • ethische Urteilsbildung,
    • Gestaltungskompetenz.

Die Schule der Zukunft müsse ein Ort der Aufklärung und nicht nur der Techniknutzung sein.

Verantwortung als Gestaltungsperspektive

Zum Abschluss betonte Witt, dass die Frage nicht sei, ob KI kommt oder nicht, sondern wie wir mit ihr umgehen: Technik ist gestaltbar. Aber nur, wenn wir uns dieser Gestaltungsaufgabe aktiv stellen.

Als Moderator steuerte ich einige Impulse aus Soziologie und Zeitgeschichte bei – ansonsten war wenig Moderation nötig – die Diskussion steuerte sich selbst. Die Veranstaltung zeigte eindrucksvoll, dass eine fundierte Debatte über KI nicht nur möglich, sondern notwendig ist.

Fazit:
Der Vortrag war ein Plädoyer für eine reflektierte, gesellschaftlich eingebettete Auseinandersetzung mit KI. Sie richtete sich an alle, die jenseits von Hype und Untergangsszenarien nach Wegen suchen, KI demokratisch, gerecht und verantwortungsvoll zu gestalten. In der anschliessenden Diskussion kamen zahlreiche weitere Details zur Sprache – und auch die Feststellung, dass wir in der KI noch in einer Frühstufe stehen.
Witts Analyse fügt sich in eine wachsende kritische Literatur ein, die die gesellschaftlichen Dimensionen der KI-Transformation ernst nimmt.
Rainer Mühlhoffs Künstliche Intelligenz und der neue Faschismus thematisiert  die ideologischen Verknüpfungen zwischen Tech-Eliten und autoritären Bewegungen, wie auch in diesem Blog  die Herausbildung neuer  Machtsysteme. immer wieder Thema war.
Karen Haos Empire of AI deckt imperiale Strukturen der KI-Industrie  auf. Frank Witt bietet eine  systemtheoretische Perspektive, die von der Entstehung und der Struktur von KI ausgeht, auf die  strukturverstärkenden Effekte von KI-Systemen.
Entgegen andere Schüben der Digitalisierung fehlt KI die breite Beteiligung einer Bewegung, die Umbrüche mitgestaltet. KI erschien ready-to-use aus der Hand und in der Kontrolle von BigTech Konzernen.

KI kann nicht als neutrale Technologie begriffen werden, sondern als soziotechnische Konstellation, die bestehende Machtverhältnisse reproduziert und verstärkt.
Aktuell polarisiert sich – entsprechend der politischen Großwetterlage – auch die KI-Diskussion zwischen imperialen Tech-Ambitionen und fundamentalistischer Technikkritik. Die Veranstaltung erinnerte daran, dass Technik immer auch eine Frage der gesellschaftlichen Wahl ist – und damit der demokratischen Gestaltung.

Die Stillen Umbrüche werden nur dann gestaltbar, wenn sie sichtbar gemacht und zum Gegenstand öffentlicher Deliberation werden. Darin liegt die politische Dimension einer kritischen KI-Forschung, die über technische Machbarkeit hinausfragt und die Bedingungen demokratischer Teilhabe in den Mittelpunkt stellt.

Frank H. Witt: Künstliche Intelligenz: Transformation und Krisen in Wirtschaft und Gesellschaft-UVK Verlag , 220 S. –  auf yt: Wittgenstein und Turing: KI als kumulative Innovation   Im Blog: Rezension zu:  Empire of AI – Dreams and Nightmares in Sam Altman’s Open AI –  Rezension zu:  Künstliche Intelligenz und der neue Faschismus . Rezension zu: Künstliche Intelligenz: Transformation und Krisen in Wirtschaft und Gesellschaft



SideMenu