Disruption -die Ideologie der Tech-Oligarchen (Rez.)

Ohne die Ideologie der Tech-Oligarchen lässt sich der Epochenbruch nicht begreifen, den Trump II bedeutet.

Jannis Brühl, Digitalexperte der Süddeutschen Zeitung, hat mit Disruption. Die Ideologie der Tech-Oligarchen und das Ende der Demokratie, wie wir sie kennen, eine Analyse vorgelegt, die die Machtübernahme Trump II als eine Revolution von Tech-Oligarchen versteht. Eine Revolution libertärer Milliardäre, mit dem unbedingten Willen zu  unreguliertem  Fortschritt. Mit Trumps zweitem Wahlsieg machten sie  sich  auf, den Moment zu nutzen und die Welt nach ihren Vorstellungen umzubauen (7) – die Zukunft in Beschlag zu nehmen.

Die ikonischen Bilder des Schulterschlusses von Populisten der Make-America-Great-Again-Bewegung und den digitalen Oligarchen aus BigTech setzten einen Einschnitt in die Zeitgeschichte. Mit einem Jahr Abstand zeigen sich Auswirkungen des Einschnitts auf vielen Ebenen  konkreter.
Ein politisches Bündnis mit viel Erklärungsbedarf  – auch in diesem  Blog ein seitdem wiederkehrendes Thema (vgl. Tech- Faschismus – Ein Mash-Up als Machtsystem, Cyberlibertarianism) –  zu deutlich erscheinen auf den ersten Blick die Widersprüche zwischen den beiden Parteien.
Brühl übernimmt das Bild der Zwei Stämme innerhalb der Allianz. Das Bild stammt von J.D. Vance, der sich selber als Teil beider Stämme sieht, als ein Verbindungsglied. Der eine Stamm sind die Populisten von MAGA, der zweite Stamm sind die Tech-Futuristen rund um die digitalen Oligarchen. Um die  letzteren geht es in diesem Buch.

Disruption als Geschäftsmodell – und politisches Programm

Die Machtübernahme ist vielfach gedeutet worden: als Staatsstreich bzw. Autogolpe, dem Selbstputsch eines legal gewählten Präsidenten. Brühl deutet sie als Disruption – den Bruch des bestehenden Systems durch ein neues Geschäftsmodell. Ein Modell aus der StartUp Ökonomie, angewandt auf ein politisches System.
Disruption ist ein zentrales Buzzword der digitalen Ökonomie – ohne den Bruch mit dem Bestehenden keine Innovation. Echte Neuerung könne nur entstehen, wenn man die Regeln des bestehenden Systems ignoriert oder bricht. Innovation wird nicht mehr als Evolution (stetige Verbesserung), sondern als Revolution (Zerstörung des Alten) definiert. Wer nicht disruptiert, innoviert nicht wirklich – er verwaltet nur.
Die disruptive Innovation ist eine Kraft, die die Welt aus den Angeln hebt (23). Auf ihr beruht die Legitimation der Disruptoren – jener kreativen Unternehmer, die den Fortschritt nicht nur antreiben, sondern beanspruchen, ihn zu verwirklichen.

Gerne wird Disruption mit dem Konzept der kreativen Zerstörung von Joseph Schumpeter in Verbindung gebracht. Innovation, die alte Ordnungen zerstört, um wirtschaftlichen Fortschritt anzutreiben.
Tatsächlich geht das Konzept der disruptiven Innovation, wie es heute genutzt wird, auf den Ökonomen Clayton Christensen zurück. Er beschrieb 1997 in The Innovators Dilemma, wie kleine Firmen etablierte Riesen stürzen, indem sie den Markt von unten mit billigeren, simpleren Lösungen aufrollen. Ein klassisches Beispiel von Disruption ist z.B. die Verdrängung der analogen durch die digitale Photographie – eine neue Technik verdrängt eine ältere. V.a. aber auch die Disruption von Strukturen durch digitale Techniken, wie etwa Amazon den Einzelhandel veränderte oder auch Social Media die mediale Öffentlichkeit.
Die Berufung auf Schumpeter ist allerdings nachträgliche Legitimation, keine intellektuelle Genealogie.

Die ideologischen Unternehmer und ihrWerkzeug

Es sind nur wenige Namen, die Brühl hervorhebt: Peter Thiel, Elon Musk, Mark Zuckerberg, Alex Karp (Palantir), Sam Altman und Marc Andreessen. Hinzu kommen David Sacks, Berater von Trump, Palmer Luckey, CEO des Rüstungs- StartUp Anduril, Brian Armstrong (Coinbase) und der neoreaktionäre Theoretiker Curtis Yarvin.
Mehrere von ihnen, Thiel, Musk, Sacks, sind durch die sogenannte PayPal Mafia verbunden, jenes Gründer-Netzwerk, das sich seit den frühen 2000ern gegenseitig finanziert, verstärkt und ideologisch bestätigt. Palmer Luckey (Oculus, virtuelle Realität) vertritt eine jüngere Generation, die dasselbe Muster fortsetzt. Sie produzieren Ideologie, nicht nur Marktdominanz, und prägen zunehmend öffentliche Debatten.

Warum diese Namen – und nicht Jeff Bezos, nicht die CEOs von Google, Microsoft oder Apple?
Google, Apple, Microsoft operieren nach klassischer Marktlogik: Gewinnmaximierung, Quartalsberichte, Shareholder Value. Sie wollen ökonomisch in ihren Geschäftsfeldern dominieren, nicht die Welt nach ihren Vorstellungen umbauen. Ihre Macht ist hegemonial, aber sie beanspruchen keine politische und keine historische Mission.
Die Grenzen verschwimmen allerdings: Microsoft investiert massiv in OpenAI und profitiert von dessen AGI-Narrativ, ohne es selbst zu produzieren. Meta entwickelte seine Ideologie nachträglich, als Legitimation bereits erreichter Dominanz – die inzwischen aber die Unternehmensstrategie prägt.  Bezos‘ Ambitionen gehen ins Imperiale und  – wie Musk – ins All, aber er agiert als klassischer Monopolist, nicht als ideologischer Unternehmer.

Brühl nennt sie Futuristen, wie jene italienische Künstlerbewegung, die Mussolinis Faschismus zuneigte. In Trump finden sie den politischen Disruptor, a kind of idiot messiah, einen Mann, der die Details nicht versteht, aber genau deshalb ihre Ziele verwirklichen könnte, unbeeinflusst von liberalen, vor allem woken Bedenken (H. Farrell, s.u.). Trump disruptiert, weil er sich an keine anderen  Regeln hält, als die der Macht.  Nicht an die des guten Geschmacks,  nicht an die der Diplomatie. Dinge zu tun, weil man sie tun kann gilt für beide Seiten.

Machtkonzentration und nachträgliche Legitimation

Die Oligarchen ergänzen Trump, mehr noch: Sie haben tatsächlich das erreicht, was Trump von sich selbst nur behauptet, nämlich wirklich erfolgreiche Unternehmer zu sein, die die digitale Gegenwart gestaltet haben (9).
Ihr Überlegenheitsgefühl speist sich aus einer historisch einzigartigen Machtkonzentration. Den Kartellen von BigTech ist es gelungen, globale Innovationsgewinne der digitalen Moderne in wenige Hände zu kanalisieren. Es ist eine digitale Landnahme, bei der öffentliche Räume in privatisierte Social-Media-Machtzentren transformiert wurden.
Dass sie diese Erfolge ganz allein in der Privatwirtschaft errungen hätten, ist allerdings ein Mythos, den das Silicon Valley gerne pflegt (66). Tatsächlich haben Tech-Unternehmen seit jeher von massiven staatlichen Anschüben profitiert; ihre eigene Leistung ist oft geringer, als ihr titanisches Selbstbild vermuten lässt.

Vom Cyberlibertarismus zur Herrschaftsideologie

Ideologisch wurde das Silicon Valley erst spät aktiv. Cyberlibertarismus hat dort zwar tiefe Wurzeln, bedrohlich für die Demokratie wird er aber erst dann,  wenn die neue digitale Ordnung mächtiger wird als die bisherige Ordnung, an deren Stelle sie tritt. Peter Thiel markierte 2008 mit The Education of a Libertarian einen Wendepunkt, als er unternehmerische Freiheit und Demokratie für unvereinbar erklärte. Mit Uber begann 2009 eine aggressive Expansion gegen lokale Regulierungen. Bis heute hat sie sich zu  einer globalen politischen Vision ausgeweitet.
Der Kauf und der Umbau von Twitter/ X durch Elon Musk ist symptomatisch. Tech-Konzerne positionieren sich heute aktiv gegen öffentliche Regulierungen – egal, ob diese demokratisch ausgehandelt und legitimiert sind.  Disruption ist nicht mehr nur eine Strategie, um Märkte aufzubrechen. Es ist ein unverhohlene Machtanspruch.

Akzelerationismus: Die Ideologie der Beschleunigung

Wie radikal diese neue Stufe des Machtanspruchs ist, zeigt ein Zitat von Alexander Karp, aus einem Investor Call vom Mai 2025, das aktuell (Februar 2026) wied erdie Runde macht: Palantir is here to disrupt and make the institutions we partner with the very best in the world and when it’s necessary to scare our enemies and on occasion kill them  (vgl.: npr.org 05/2025).
Oligarchen sehen sich als Sachwalter eines Fortschritts, den sie selbst definieren. Wer definiert, was Fortschritt ist, erhebt Anspruch auf Gestaltung der Zukunft. Mit ihrer monopolisierten ökonomischen Kraft schicken sie sich  nun an, die Welt nach ihren Vorstellungen neu zu bauen (14).

Digitale Oligarchen/ BigTech/ Silicon Valley – wie man sie auch nennt, wurden mit ihrer monopolisierten ökonomischen Macht zu einer politischen Kraft. Sie betreiben aktiv öffentliche Ideologiearbeit und beanspruchen kulturelle Deutungshoheit als Sachwalter des Fortschritts. Wer definiert, was Fortschritt ist, kontrolliert die Zukunft selbst.

Kaum ein Dokument fasst diese Ideologie so klar zusammen wie Marc Andreessens Techno-Optimist Manifesto (Oktober 2023). Der Text ist das vielleicht prägnanteste Beispiel für jenes Denken, das als Akzelerationismus bezeichnet wird: Es soll keine Grenzen mehr geben, nur noch Beschleunigung durch Technologie. Alles, was die technologische Entwicklung bremst, ist bei Andreessen nicht nur ein Hindernis, sondern böse, weil es den (durch Technik erreichbaren) Wohlstand der Menschheit verhindert. Andreessen listet u.a. Feinde des Fortschritts auf, darunter Begriffe wie Social Responsibility, Sustainability (Nachhaltigkeit), Precautionary Principle (Vorsorgeprinzip) und sogar Ethics.  Die Konsequenz: Wer KI regulieren wolle, verbaue den Weg in die Zukunft. Den Gang der Geschichte dürfe man nicht aufhalten.

Akzelerationismus begreift den Kapitalismus als unaufhaltsamen, durch Technologie getriebenen Beschleunigungsprozess, der auf eine posthumane Zukunft zielt. Die Strömung ist keine neue Erfindung, sondern ein Upgrade des Cyberlibertarismus, der Tech noch als Raum jenseits staatlicher Souveränität verstand.
Was neu ist, ist die Funktion: Aus einer subkulturellen Selbstermächtigung wurde eine Herrschaftsideologie. Akzelerationismus rechtfertigt nicht mehr nur die Freiheit von Regulierung, sondern den Führungsanspruch einer oligarchischen Elite – als historische Notwendigkeit, der sich die Demokratie unterzuordnen hat.

AGI als ultimative Rechtfertigung

Eine ultimative Legitimation liefert ein Konzept, das bisher nicht existiert, aber als unvermeidlich inszeniert wird: Artificial General Intelligence (AGI), die Superintelligenz.  Sie spielt eine eigene Rolle in den Erzählungen der großen KI-Firmen – bei OpenAI geradezu als mythologische, zugleich dystopische Verheissung. Wahlweise Erlösung (die Lösung zentraler Menschheitsprobleme) oder Apokalypse (existenzielle Bedrohung). Beide Narrative erzeugen denselben Effekt: Entwicklung erscheint dringlich, Regulierung darf sie nicht ausbremsen und Kontrolle konzentriert sich bei den Akteuren, die AGI vorantreiben. Die Erzählung wirkt, bevor die Technologie existiert.

Resumé  und was wir tun können

Mit dem Abstand eines Jahres liefert Jannis Brühl eine kompakte und detaillierte Analyse des zweiten Stammes der Trump-Allianz – der Tech-Oligarchen, ihrer Ideologie und ihrer Ambitionen. Das Buch ist Pflichtlektüre für alle, die verstehen wollen, dass es nicht um technologischen Fortschritt geht, sondern um einen systematischen Angriff auf demokratische Institutionen.

Gegen die digitale Landnahme und die Vereinnahmung von Zukunft  hilft nur eines: aufhören, die Monopolisierung digitalen Fortschritts durch  Oligarchen als unvermeidliche Naturgewalten zu akzeptieren, und beginnen, die Infrastrukturen unserer Zukunft wieder selbst zu gestalten – statt sie nur zu abonnieren.

Die Zukunft ist offen und nicht das Eigentum einer kleinen Clique.

 

Jannis Brühl: Disruption. Die Ideologie der Tech-Oligarchen und das Ende der Demokratie wie wir sie kennen.  01/2026  – vgl.  Jannis BrühlDer Seitenwechsel – wie die Oligarchen rechts wurden  SZ 21.02.25. *Henry Farrell: When tech CEOs are like grumpy ducklings 19.07.2025. Simon Lewis, Humeyra Pamuk and Gram Slattery: Exclusive: US plans online portal to bypass content bans in Europe and elsewhere . 18.0.2026.  Bobby Allyn: How Palantir, the secretive tech company, is rising in the Trump era.  npr.org  3.05.2025
Im Blog: Tech- Faschismus – Ein Mash-Up als Machtsystem; Cyberlibertarianism – The Right Wing Politics of Digital Technology



KI als Intermediär – Plausible Konfabulation

KI als Intermediär – Plausible Konfabulation. Bild:

KI wird immer mehr zu einer kognitiven Infrastruktur, die in ganz unterschiedlichen Lebensbereichen genutzt wird. Sie automatisiert unzählige Vorgänge, vermittelt zwischen Wissenschaft und Öffentlichkeit, assistiert bei kreativer Arbeit und ist als alltägliche Instanz für Wissensfragen längst akzeptiert. Daneben wird mit ihr digitaler Schrott – sogenannter Slop – in erschreckend großen Mengen produziert.

Neulich in der Regionalbahn: Zwei Jugendliche, mitten im Gespräch, unsicher über die Richtigkeit einer Idee, zücken ihre Smartphones – Lass uns mal ChatGPT fragen. Nicht Google, nicht Wikipedia. Die Sprachmaschine ist zur Suchmaschine  geworden.  Ein einfaches Beispiel dafür, wie sehr sich die Nutzung von KI im Alltag verbreitet hat.

KI als vermittelnde Instanz

Ihre Funktion ist die eines Intermediärs. KI verbindet Nutzer mit einem Thesaurus aus Trainingsdaten – gesammeltem Wissen und kreativen Leistungen in Form von Texten, Bildern, Klängen, Code – grundsätzlich allem, was sich digital erfassen liess. Roberto Simanowski nennt sie Sprachmaschine. Sie zitiert nicht aus den Quellen, sie synthetisiert daraus
Der Thesaurus ist kein geordnetes Archiv, er ist ein qualitativ neues Datenreservoir, das sich bildlich als digitales Magma beschreiben lässt – eine aufgelöste Masse aus Texten, Bildern, Code, Meinungen, Fakten und Fiktionen, ohne Hierarchie, ohne Kuratierung.

Das digitale Magma: Woher stammen die Trainingsdaten?

Woher KI ihre Daten bezieht. Quelle: Semrush Study of 150.000 Citations, June 2025 – nach Klick in voller Auflsung auf neuer Seite

Woher KI ihre Antworten bezieht, zeigt eine Analyse von 150.000 KI-Zitationen (siehe Abb.): An erster Stelle steht Reddit (40,11%), gefolgt von Wikipedia (26,33%), YouTube (23,52%) und Google selbst (23,28%). Erst dann folgen Bewertungsplattformen wie Yelp, Amazon, Tripadvisor.  Was häufig zitiert wird, steigt nach oben. Was selten ist, versinkt.
Das digitale Magma ist nicht identisch mit dem öffentlich zugänglichen Web, aber es wird von ihm dominiert. Zwar fließen auch Wikipedia, wissenschaftliche Preprints, lizenzierte Nachrichtenarchive und – vermutlich illegal – Millionen urheberrechtlich geschützter Bücher, Bilder, Musikstücke in die Trainingsdaten. Doch allein das Volumen des Social Web übertrifft andere Quellen. Zusammengeschafft in gigantischen Web-Crawls – automatisierte Sammlungen von allem, was öffentlich zugänglich war. KI ist weniger ein Konzentrat des Weltwissens als eine Quintessenz des Social Web.

Der Unterschied zur Suchmaschine

Sprachmodelle verarbeiten statistische Muster, nicht Bedeutung, sie kennen keine Referenz ausserhalb ihrer statistischen Verteilungen.
Sie übersetzen Daten in natürliche Sprache,  KI wird zur vermittelnden Instanz, zum Intermediär von Wissen. Selber erzeugt sie kein Wissen und keine Erkenntnis, aber sie organisiert den Zugang zu den digitalen Wissensspeichern. Als Intermediär hat die KI also Einfluss darauf, was wir wahrnehmen und wie wir es verstehen.

Damit verschiebt sich etwas Grundlegendes. Suchmaschinen führten zu den Quellen – zu den Websites, Dokumenten, Publikationen, wo Wissen abrufbar war. Die Bewertung blieb den Nutzern selber überlassen. KI hingegen organisiert den Zugang nicht nach bibliothekarischen oder wissenschaftlichen Kriterien, sondern nach statistischer Wahrscheinlichkeit. Sie führt nicht zu Quellen, sondern produziert synthetische Plausibilität. Eine vermittelnde Instanz ohne Eigenstandpunkt, ohne Referenz außerhalb ihrer statistischen Verteilungen.

Plausible Konfabulation: Ein  Bild aus der Neuropsychologie

In der Neuropsychologie bezeichnet Konfabulation das schlüssige Erfinden von Zusammenhängen bei fehlendem Wissen, ohne Täuschungsabsicht. Der Patient mit Gedächtnislücken füllt diese nicht bewusst mit Lügen, sondern mit dem, was seinem Hirn plausibel erscheint. KI-Modelle operieren ähnlich: Sie sind darauf trainiert, plausible Fortsetzungen von Texten zu erzeugen. Was statistisch wahrscheinlich klingt, wird zur Antwort.
Der Begriff Plausible Konfabulation ist daher kein Zynismus, keine Polemik, sondern bildliche Beschreibung eines Funktionsprinzips. Und dieses Prinzip lässt sich, bewusst eingesetzt, produktiv nutzen.
Plausible Konfabulation erleichtert den Ausgriff auf spekulative Ideen, auf Möglichkeitsräume jenseits des bereits Gewussten. KI kann als Sparringspartner für Gedanken dienen. Sie füllt Lücken, kombiniert Muster neu, kann divergente Denkräume öffnen, die sich ohne sie vielleicht nicht geöffnet hätten. Sie liefert Input, Varianten, unerwartete Kombinationen – der Nutzer wählt aus, bewertet, verwirft, verfeinert.
Die Stärke liegt im Aufzeigen des Möglichen, nicht in der einzig richtigen Lösung. Assistenz bedeutet hier nicht Automatisierung, sondern digitales Lektorat – ein Gegenüber, das Vorschläge macht, ohne Entscheidungen zu erzwingen. Der Nutzer bleibt Instanz der Bewertung, die KI liefert Material.

Die Wirkung von Konfabulationen unterscheidet sich je nach Anwendungsbereich. In strukturierten, abgegrenzten Domänen kann KI durchaus verlässlich als Wissens-Intermediär fungieren: In juristischen Datenbanken mit definiertem Corpus von Rechtsprechung und Gesetzestexten, in medizinischen Fachdatenbanken mit kuratierten Studien, beim Coding mit formalen Systemen und eindeutigen Regeln. Dort, wo Fragen und Thesaurus präzise aufeinander abgestimmt sind, wo Retrieval-Augmented Generation (RAG) den Zugriff auf verifizierbare Quellen sichert, bleibt die Konfabulation eingegrenzt.

Bei der Generierung von Bild- und Toninhalten, generell bei fiktionalen Inhalten, stellt sich die Frage nach Wahrheit nicht. Dort geht es nicht um Erkenntnis, sondern um ästhetische Plausibilität – um Stil, Stimmigkeit, emotionale Wirkung.  Ein KI-generierter Roman muss nicht wahr sein, der Reiz generierter Bilder liegt oft gerade in ihrer physischen Unmöglichkeit.
Die Probleme sind andere, Urheberschaft, Originalität, die Frage, ob kreative Leistung ohne intentionale Struktur überhaupt als solche gelten kann.
Die Problematik – die Konfabulation von Fakten, die Vermischung von Wissen und Spekulation – betrifft primär den Einsatz von KI als Wissens-Intermediär: dort, wo sie Suchmaschinen ersetzt, wo sie Produktrecherchen durchführt, wo sie auf Fragen antwortet, bei denen ein Wahrheitsanspruch besteht.

Zero-Klick

Die Sprachmaschine lässt die Suchmaschine nicht verschwinden, aber hat sie verändert. Google als dominierende Suchmaschine ist nicht mehr nur ein Index, sondern hat sich durch KI-Übersichten (AI Overviews) selbst zu einer synthetisierenden Antwortmaschine entwickelt. Über 60% der Suchanfragen führen mittlerweile nicht mehr zu Klicks auf eine externe Website*.
Das bedeutet ein Ende der gewohnten Intermediarität im Netz, in der Suchmaschinen zu den Anbietern von – meist SEO-optimierten – Inhalten vermittelten. Nutzer geben sich stattdessen mit einer generierten Kurzfassung zufrieden. Zero-Klick-Recherchen entziehen den eigentlichen Urhebern dieser Inhalte die nötige Aufmerksamkeit und damit oft die wirtschaftliche Basis. Inhalte werden destilliert, ohne deren Produzenten zu kompensieren. 

Wie Nutzer KI  erleben: Einblicke aus 1250 Interviews

Vor gut einem Monat (5.12.2025) hat Anthropic, die Betreiberfirma der KI Claude Ergebnisse einer von KI-Agenten ausgeführten Studie online gestellt.  Insgesamt sind  1250  Interviewprotokolle zur Nutzung online verfügbar, Bereits der Einblick in eine kleine Auswahl macht deutlich, was funktioniert und was nicht.
KI funktioniert dort, wo strukturierte Aufgaben (Code, Lückentexte, Zusammenfassungen) mit klaren Anweisungen kombiniert werden. Sie scheitert, wo Ton, Stil, emotionale Intelligenz oder faktische Präzision gefordert sind.
Intentionalität ist der Knackpunkt. Menschen erwarten von KI, dass sie ihre Intention versteht und automatisiert umsetzt – so wie sie es von einem kompetenten Mitarbeiter erwarten würden. Genau das kann die KI nicht leisten. Sie hat keine Vorstellung davon, was gemeint ist, nur davon, was statistisch wahrscheinlich folgt.
Es ist nicht einmal ein rein technisches Problem. Das Verständnis der Intention und noch mehr die Ausführung in ihrem Sinne, zählt zu den höchsten Anforderungen in jeder Zusammenarbeit.
Die Erwartung, Aufgaben zu delegieren statt zu assistieren, führt systematisch zu Enttäuschungen.
In den gesichteten Interview-Beispiele finden sich durchweg Hinweise darauf. Die Texterin erhält konfabulierte Montessori-Beispiele, wenn es um Kindergärten geht. Der Architekt bekommt 100 Zeilen funktionierenden Code in kurzer Zeit – aber bei E-Mails wird der Ton nicht getroffen. Die Lehrerin generiert maßgeschneiderte Geschichten für Schüler, scheitert aber selbst beim KI-gestützten Französischlernen. Der Student lässt sich Fachbegriffe erklären, ist aber überzeugt, dass KI nie den emotionalen Vorteil eines menschlichen Arztes” ersetzen kann. Die KI liefert statistische Plausibilität, versteht aber nicht die Intention.

Kreative nutzen KI, um ihre Produktivität zu steigern, trotz der Kritik ihrer Kollegen und Zukunftsängsten. Sie müssen sich sowohl mit der unmittelbaren Stigmatisierung des KI-Einsatzes in kreativen Gemeinschaften als auch mit tieferliegenden Sorgen über wirtschaftliche Verdrängung und den Verlust der menschlichen kreativen Identität auseinandersetzen. **
Wissenschaftler wünschen sich eine Partnerschaft mit KI, vertrauen ihr aber noch nicht für die Grundlagenforschung. Sie äußerten einhellig den Wunsch nach KI, die Hypothesen generieren und Experimente entwerfen kann. Derzeit beschränken sie deren Einsatz jedoch auf Aufgaben wie das Verfassen von Manuskripten oder das Debuggen von Analysecode.**

Angemessenheit ist entscheidend

Der Nutzer bleibt verantwortlich für die Angemessenheit (Appropriateness) des KI-Einsatzes. KI kann nicht entscheiden, wann ihre Konfabulation produktiv ist (bei kreativer Exploration) und wann sie problematisch wird (bei Faktenfragen mit Wahrheitsanspruch). Die Urteilskraft muss beim Menschen bleiben – und setzt voraus, dass er erkennt, wann er es mit Konfabulation zu tun hat.

KI kann ein Werkzeug für divergentes Denken sein. Sie öffnet den Raum für multiple Lösungswege, generiert Varianten, zeigt Möglichkeiten. Die Konvergenz – die Entscheidung für eine Lösung, die Bewertung der Angemessenheit – bleibt Aufgabe des Menschen. Die Maschine exploriert, der Mensch entscheidet.
Strukturierung, Argumentation, Synthese – Kernaufgaben der Wissensarbeit – werden zunehmend zwischen Mensch und Maschine ko-produziert. Die Frage ist nicht mehr, ob KI Teil intellektueller Arbeit wird, sondern wie diese Ko-Produktion gestaltet werden soll – und wer die Kontrolle behält.

Wer die Sprachmaschine nutzt, produziert meist mehr, schneller, glatter. Wer sie nicht nutzt, gerät oft ins Hintertreffen. Und weil (fast) alle sie nutzen, steigt das Tempo weiter. Die Maschine setzt den Takt – der Mensch passt sich an. Nicht unbedingt Fortschritt, oft ein Doping-Effekt. Die versprochene Zeitersparnis mündet in höhere Erwartungen an Geschwindigkeit und Volumen.
Man sollte nicht vergessen, dass der Sinn kreativer Arbeit in ihrer Wirkung auf Menschen liegt. Wenn sie beim Leser, Betrachter, Hörer etwas auslöst, hat sie sich oft schon gelohnt. KI kann für viele Zwecke eingesetzt werden, aber wir sollten entscheiden können, wann und in welchem Sinne.
Keine  Technik ist unschuldig – und KI ist es auch nicht.

vgl.: . Carsten Brosda: Bevor die KI unsere Demokratie verschlingt FAZ. 3.01.26 – *Impact of Generative AI on Search Traffic and Content Visibility. In : beanstalkim.com März 25 – **Anthropic: Introducing Anthropic Interviewer: What 1,250 professionals told us about working with AI – vgl. auch. DocCheck Flexikon: Konfabulation.   Roberto Simanowski:   Sprachmaschinen – eine Philosophie der künstlichen Intelligenz . C.H. Beck 2025,  288 S.   (Rezension) – Klaus Burmeister: .Ein Selbstversuch zwischen kognitiver Bereicherung und stillem Verlust. LinkedIn 25.11.2025.



Sprachmaschinen – eine Philosophie der künstlichen Intelligenz – (Rez.)

Jede Technik hat die Macht, ihren ahnungslosen Nutzern die eigene Logik aufzudrängen – so beginnt es im Klappentext.  Zitierfähige Sätze und wirkungsvolle Sprachbilder gibt es zuhauf in  Sprachmaschinen – eine Philosophie der künstlichen Intelligenz von Roberto Simanowski.
Drei Jahre seit der Verbreitung von generativer KI tritt die Frage nach ihrer Wirkung auf unser Denken in den Vordergrund. Large Language Models wie ChatGPT, Claude, Gemini sind nicht mehr Zukunftstechnologie, sie durchdringen inzwischen die kognitiv-kreativen Bereiche unseres Alltags.
Roberto Simanowski ist Literatur- und Medienwissenschaftler, Medienphilosoph und Autor (Todesalgorithmus. Das Dilemma der künstlichen Intelligenz, 2020). Bereits 1999 war er Gründer von Dichtung-Digital, einem internationalen Online-Journal für Kunst und Kultur. Mit der digitalen Entwicklung und ihrer gesellschaftlichen und kulturellen Wirkung ist er somit bestens vertraut.
Simanowski analysiert einen alltäglichen Souveränitätstransfer zwischen Mensch und Maschine (17). Nach welchen Standards geschieht das? Was geht durch die Automatisierung verloren? Von ‘KI’ spricht er selten; sein zentraler Begriff, die Sprachmaschine, ist bewusst gewählt. Der Begriff markiert eine Algorithmisierung der Kommunikation.

Welche Art von Medium ist die Sprachmaschine? Simanowski beschreibt sie als eine globale Technologie, die als riesiger Umschlagplatz von Werten fungiert (156). Damit verbunden ist eine zentrale Konfliktfrage der Globalisierung: Gleicht diese Technologie die Kulturen einander an, indem sie allen die gleichen Werte vermittelt, oder gleicht sie sich selbst den jeweiligen Kulturen an?
Ihre Funktion ist die eines Intermediärs: Sie verbindet den Nutzer mit einem mit Trainingsdaten gefüllten Thesaurus, dem gesammelten Wissen und  kreativen Leistungen der Welt,  der alles enthält, was sie kriegen kann. Die Maschine zitiert nicht daraus, sondern arbeitet damit. Sie übersetzt Daten in natürliche Sprache, vermittelt zwischen Anfrage und generierter Ausgabe. Dabei produziert sie das, was statistisch am anschlussfähigsten erscheint.

Das große Versprechen der KI-Revolution ist die Automatisierung kognitiver und kreativer Prozesse – auf der Basis von Big Data und auf Bezahlbasis. Simanowski beschreibt die Nutzerlogik: Sie kaufen die Kompetenz, die sie nicht haben und auch nie so effektiv entwickeln könnten, wie es die Sprachmaschine tut (vgl. S. 58).

Die Basis all dessen ist das Training der Sprachmaschine mit möglichst vielen verfügbaren Daten, ein heftig umstrittenes Thema (vgl. Der Wert von Kultur- und Wissensarbeit im Zeitalter von KI).  Simanowskis Haltung dazu ist relativierend, was mich überrascht. Er verweist auf transformative Verwendung und das Fair-Use-Prinzip (S. 57), auf das sich Betreiber beim Training der Modelle berufen können. Den Widerstand von Autoren gegen die unentgeltliche Nutzung ihrer Werke, hält er für verständlich, aber für kontraproduktiv. Ihre Verweigerung senke lediglich die Standards der Sprachmaschinen-Outputs, während ihre Mitwirkung die Qualität heben würde (vgl. S. 59).

Simanowskis Argument beruht auf einer Analogie. Wir alle synthetisieren das, was wir geistig aufnehmen, und geben das Ergebnis – einen Text, ein Bild, einen Song – in die Welt zurück, unter unserem Namen und gegebenenfalls mit Urheberanspruch und finanziellem Interesse (S. 57). Wenn wir Texte schreiben, haben wir andere gelesen; wer malt, hat andere Bilder gesehen; wer komponiert, hat andere Musik gehört. Was Menschen daraus machen, fällt unterschiedlich aus – abhängig von Intention und Ambition. Oft bleibt es bei Reproduktion, manchmal entsteht etwas Neues, evtl. sogar Kunst.

Lässt sich diese Ebene individueller kreativer Synthese mit dem industriellen Ausmaß der KI-Konzerne vergleichen? Die Analogie verdeckt mehr, als sie erhellt. Tech-Konzerne privatisieren gratis gesammelte kulturelle Inhalte (Training) und monetarisieren anschließend die Abhängigkeit der Nutzer von den resultierenden Modellen (Bezahlung). Die Infrastruktur der kognitiven Automatisierung wird somit monopolisiert – ein Vorgang, der mit massiven Machtasymmetrien einhergeht.

Simanowski versteht sein Buch nicht als systematische Abhandlung, sondern als einen explorativen Denkprozess. Er selber nennt es vagabundierendes Denken. Es geht um Einsichten, aus denen sich etwas machen lässt, sein Antrieb ist intellektuelle Neugier (vgl. S. 43).
Die Sprachmaschine bestätigt ihn: Diesem Text geht es nicht um Bullet Points, sondern um Denkfiguren –  so das Urteil von ChatGPT über das Buch (S. 43).
Die politische Ebene wird zunächst ausgeblendet (vgl. Profil-Interview, Textauszug unten). Erst an späterer Stelle (188ff) werden politische Bezüge weiter ausgeführt. Politische  Gestaltungsmöglichkeiten werden nicht weiter behandelt – und sind wohl auch thematisch nicht vorgesehen. Simanowskis Absicht ist eine Erkundung, keine Agenda. Die Sprachmaschine erscheint so neutraler, als sie ist.

Die Exploration steht im Zeichen von fünf Fragen, die sich in den fünf Kapiteln des Buches entfalten. Damit entsteht zwar keine Systematik, aber eine Kartierung von Wirkungen der Sprachmaschine:  Was ändert sich, wenn der Sender des Textes eine Maschine ist ? Was geschieht, wenn Sprache nur noch als Statistik behandelt wird? Wer gibt der Sprachmaschine mit welchem Mandat welche Werte vor? Wie verändert sich die Souveränität des Menschen, wenn er sich einer Sprachmaschine bedient? Warum ist die Entwicklung der Sprachmaschine trotz ihrer Risiken unausweichlich? (40)
Autorenschaft
, Rechenfehler, Werte-Export, Entmündigungsschichten und Fortschrittsfalle sind die Titel der Kapitel und gleichzeitig die Felder der Explorationen. Sie knüpfen jeweils an Teildisziplinen der Philosophie an: Sprach-,  Erkenntnis-, Moral- und politische Philosophie, Geschichtsphilosophie.

Das Kapitel zur Autorenschaft  – Wen kümmert es, wer aus der Sprachmaschine spricht? führt in die sprachphilosophische Tradition. Simanowski reiht die Klassiker auf: Herders Sprache als Abdruck der Seele, Heideggers Die Sprache ist das Haus des Seins, Wittgensteins Die Grenzen meiner Sprache bedeuten die Grenzen meiner Welt. Diese Sätze sind mehr als blosse Referenzen – sie markieren eine fundamentale Einsicht. Sprache konstituiert Subjektivität, erschließt Welt, begrenzt und ermöglicht Denken. Wenn Sprache uns prägt und unsere Welt erschließt, dann ist die maschinelle Sprache nicht nur ein Werkzeug, sondern ein Hausfriedensbruch, der in unser Sein eindringt, um zu bleiben (17). 
Einen theoretischen Angelpunkt bildet Roland Barthes Essay Der Tod des Autors (1967), ein Schlüsseltext des Poststrukturalismus und der modernen Literaturtheorie.Simanowski fasst ihn so zusammen: Der Mensch ist nicht souveräner Eigentümer seiner Äusserungen. Vielmehr sind diese das Ergebnis der Diskurse, an denen er teilhat. Jeder Autor ist das, was er gelesen hat; er ist nicht die Quelle seiner Worte, sondern eine Art Mixer oder Durchlauferhitzer (50).
Die Sprachmaschine verschmilzt nicht nur einzelne gelesene Texte, sondern synthetisiert das gesamte verfügbare Textkorpus. Generiert sie damit einen Welttext (61) – eine universale, autorlose,  statistisch generierte Erzählung der Menschheit? KI-Texte können die perfekten Texte ohne Autor sein, reine statistische Reproduktion.

Das Kapitel Rechenfehlerdas mathematische Denken der Sprachmaschine knüpft an die Erkenntnisphilosophie an. Es geht um die Rechenprozesse hinter den Texten – ihre allmähliche Verfertigung beim Rechnen,  um den Vektorraum, in dem Token zueinander in Beziehung stehen. Die Anschlusswahrscheinlichkeit lässt sich regulieren und damit der Stil temperieren. Schliesslich auch um einen drohenden Kipppunkt: Wenn die Sprachmaschine zur Inzest-KI  (101) wird und nur noch solche Daten verarbeitet, die sie selbst bereits produziert hat – eine Endlosschleife statistischer Selbstreferenz.

Umfangreichstes Kapitel (109-184) ist Werte- Export – Die moralische Zweiterziehung der Sprachmaschine, mit Bezug zur Moralphilosophie. Hier geht es um den oben genannten Umschlagplatz von Werten, um die politisch-kulturellen Auseinandersetzungen  darüber, auf welche Wertvorstellungen das Trainingsmaterial der Sprachmaschine  ausgerichtet wird.
Export verweist auf die Dominanz eines Zentrums, das für universelle Werte steht – oder eben doch bloß für westliche Werte bzw. ihre Gegenpositionen. Es geht darum, welche sozialen Welten gespiegelt werden sollen – und wessen Normen als selbstverständlich gelten. Mit KI verstärkt sich die Hegemonie des Globalen Nordens: Technologische Dominanz sichert kulturellen und politischen Einfluss.
Was in den Trainingsdaten der Sprachmaschine vorherrscht, bestimmt  ihren Output,  und ist  das Abbild einer statistischen Realität.
Die moralische Zweiterziehung der Sprachmaschine ist derzeit Schauplatz eines politischen Kulturkampfes in den USA – zwischen Wokeness und ihren Gegnern. Auseinandersetzungen, die bis an die Stellschrauben des Finetunings und Post-Trainings reichen. Welches Alignment ist zulässig? Wie weit darf man den Output in erwünschte Richtungen lenken?
Es wird deutlich, dass wenige privatwirtschaftliche Unternehmen zentrale Kommunikationsmittel und Zugänge zu Wissen kontrollieren.

In Kapitel Entmündigungsgeschichtewenn die Sprachmaschine uns zu sehr zu Diensten ist kommen politische und kulturkritische Fragen zum Zuge. KI ist ein zentraler Faktor einer Machtverschiebung zwischen staatlichen und wirtschaftlichen Systemen – oder besser gesagt, zwischen öffentlich kontrollierten und gewinnorientierten Systemen.
Angesprochen werden die Gefahr von Oligarchien, aber auch der Erosion von menschlicher Urteilskraft und intellektuellen Autonomie durch die Auslagerung kognitiver Erfahrung: Das Gehirn bleibt immer mehr hinter dem zurück, was es ohne Sprachmaschinen leisten könnte(210) -Schliesslich auch das Wohlverhalten der K: Warum ist sie immer so nett?

Im letzten Kapitel Fortschrittsfalle geht es um die Unausweichlichkeit der Sprachmaschine, um eine Eigendynamik, der man sich kaum entziehen kann. Künstliche Intelligenz ist gleichzeitig Triumph und Kränkung menschlicher Schöpfungskraft  Technology happens because it is possible – einverstanden – aber wem gehört sie? 

Das Fazit des Autors: Wir brauchen Philosophische Medienkompetenz – Bild: unsplash+

Simanowskis Fazit zum Abschluss ist die Forderung nach einer spezifischen KI-Kompetenz (261ff), einer  Philosophischen Medienkompetenz, Eine Kompetenz, die über die  Nutzungskompetenz hinausgeht. Es muss eine Medienreflexionskompetenz sein, die es dem Nutzer ermöglicht, die Logik der Technik zu erkennen und für sich zu nutzen, und sich nicht von ihr beherrschen zu lassen.
An anderer Stelle nennt er KI als möglichen Auslöser eines neuen Digital Divide, als digitale Kluft – für die einen führt der Umgang mit ihr zur Verblödung, für die anderen wird es produktiv.

Das Buch hält das, was der Autor ankündigt – eine Exploration entlang von  Fragen. Er nennt es selber vagabundierendes Denken.  Mit den Fragen entsteht dann eben doch eine Art Systematik, zumindest Kartierung  der Wirkungen. So leistet das Buch einen wesentlichen Beitrag zur aktuellen Debatte.
Die Frage, ob KI  demokratische und professionelle Fähigkeiten stärkt oder untergräbt, treibt nicht nur Simanowski um. Seine Beobachtung einer erodierenden Souveränität, sogar kognitiven Verlusten, und der Monopolisierung von Wissenszugängen findet sich in vielen zeitgenössischen Beobachtungen wieder. Ein aktueller Essay des Zukunftsforschers Klaus Burmeister beschreibt dies als Selbstversuch zwischen kognitiver Bereicherung und stillem Verlust. Burmeisters Perspektive ergänzt Simanowskis philosophische Grundlegung – zeigt, dass diese Debatte weiter geführt wird.

Die teilweise Ausblendung der politischen Ebene hat mich zunächst irritiert. Die Diskussionen der vergangenen Monate waren von genau dieser Frage geprägt: den Effekten der Technologie selbst und den Machtstrukturen, die sie hervorbringt. Hier zeigen sich Parallelen zur Entwicklung der sozialen Medien: technische Innovation einerseits, oligarchische Infrastruktur andererseits. Dass Simanowski diese Ebene erst spät und knapp einbezieht, habe ich als Leerstelle empfunden. Sie erklärt sich aus seiner Absicht der Erkundung, nicht des Agenda-Setting – bleibt aber ein Thema, das in der öffentlichen Debatte weitergeführt werden muss.

Roberto Simanowski:   Sprachmaschinen – eine Philosophie der künstlichen Intelligen . C.H. Beck 2025,  288 S.  . Klaus Burmeister: .Ein Selbstversuch zwischen kognitiver Bereicherung und stillem Verlust. LinkedIn 25.11.2025.

zu *: In einem Interview mit der österreichischen Zeitschrift Profil erklärt Simanowski: ‘Wir können die Profitgier der Plattformen und Unternehmen geißeln und aufdecken. Das hat mich aber weniger interessiert, denn auch dahinter steckt eine gewisse Logik, der diese Konzerne selbst nicht entkommen.’ Die Alternative wäre, ‘das marktwirtschaftliche System in Frage zu stellen’ – doch die sei ‘vor 35 Jahren weggebrochen’. aus: Was die Maschinen sprechen: Roberto Simanowskis KI-Philosophie In:  Profil Nr 45/2025

 



KI als Strukturverstärker – Macht, Algoritmen und Autorenschaft

Bild: Steve-johnson-KI .unsplashed+

KI ist Gamechanger,  darüber sind sich fast alle einig. Darüber wie sich die Spielregeln ändern sollen, nicht.
Einstellungen und Haltungen zu KI gehen weit auseinander, die Diskussionen verlaufen meist innerhalb bestehender Gruppierungen, die den jeweiligen  Deutungslogiken folgen.

Gründe dafür, dass sich die Diskurse kaum treffen, gibt es viele. KI greift in zahlreiche gesellschaftliche Funktionssysteme ein: Medizin, Recht, Bildung, Produktion, Werbung, kreative Kreation und so viele mehr …  Ihr Einsatz, ihre Nutzung folgt einer  jeweils eigenen Logik.
Grundsätzlich tritt KI in zwei Formen auf: als sichtbare, aufrufbare Chatbots wie ChatGPT, Claude Sonnet oder Bildgeneratoren, wie Midjourney und  Googles Nano Banana/ Gemini 2.5 Flash Image und als im Hintergrund in Prozesse eingebettete Algorithmen, die Abläufe präemptiv steuern.
Konzerne sehen in KI ein Effizienz-Tool, das Abläufe beschleunigt und Arbeitskosten reduziert. Wirtschaftsförderer sehen in ihr einen Baustein der Infrastruktur, der Technologiesouveränität erfordert. Anwender erleben sie oft spielerisch.
Andere sehen KI in der Nähe eines autoritären Machtapparats oder als einen Angriff auf geistige Autonomie und das Prinzip der Autorenschaft.

Chatbots erlauben es uns, mit ihnen zu experimentieren, ihre Funktionsweise zu erkunden, sie für eigene Zwecke zu nutzen oder auch zu verwerfen. Sie sind sichtbar, direkt erfahrbar und eröffnen Spielräume zur Einübung neuer Praktiken. Sie können als bottom-up- Praxis verstanden werden. Im besten Falle als Werkzeuge der Co Creation.
Eingebettete Algorithmen
hingegen sind unsichtbar in Prozesse integriert. Sie lassen sich nicht einüben, sondern wirken strukturell – als Teil einer Macht-und Steuerungsarchitektur, die Entscheidungen präemptiv vorgibt, noch bevor wir selbst eingreifen können. Sie können als top-down Praxis verstanden werden. 

Für beide Formen gilt aber, dass sie Interessen spiegeln. Chatbots ebenso wie eingebettete Algorithmen liefern nicht neutral, sondern genau das, was in ihren Vorgaben, Trainingsdaten oder politischen Entscheidungen angelegt ist – im besten Fall also auch das, was demokratisch beschlossen wurde.
LLMs basieren auf einer oft urheberrechtlich problematischen kulturellen Extraktion: LLM systems harvest everything that can be made digital, and then use it to train corporate AI models (Kate Crawford, 2023)

KI ist zwar seit fast drei Jahren Hype und  die meisten Menschen sind mit ihr in Berührung gekommen, dennoch fehlt der Diskussion die inhaltliche Breite, die ihr zukommt.
Die öffentlichen Debatten drehen sich überwiegend um die sichtbare, dialogische Oberfläche, die wir mit einigem Lernaufwand sinnvoll und für uns nützlich gestalten können.  Die unsichtbare Allgegenwart der eingebetteten Algorithmen, die Prozesse steuern und Entscheidungen präemptiv beeinflussen, bleibt im Hintergrund.
Frage ist: Wie können Prozesse gestaltet werden, ohne von ihnen überrollt zu werden? Ohne dass sich strukturelle Macht weiter konzentriert?
KI ist in Machtstrukturen eingebunden. Ganz offensichtlich können  eingebettete Algorithmen präemptiv, vorentscheidend im – selektierenden-  Sinne der jeweiligen Betreiber verwendet werden.
Es fehlt eine gesellschaftliche Bewegung, die Machtstrukturen thematisiert, ohne gleich die ganze Technologie abzulehnen. Die Thematisierung eines neuen, smarten Faschismus – wie bei Rainer Mühlhoff ist richtig. Ein alleiniger Rückzug darauf kommt aber einer splendid isolation gleich.
KI-Technologien wurden ursprünglich dazu entwickelt,  aufwendige Analysen zu erleichtern und uns bei komplexen Aufgaben zu unterstützen. In den letzten Jahren haben sie sich zu nahezu omnipräsenten Begleitern  entwickelt. KI-basierte Systemen sind so sehr mit unserer Wirklichkeit verwoben, dass wir uns oft nur noch am Rande bewusst sind, wie stark sie unsere Entscheidungsprozesse beeinflussen.
Zudem kratzt KI  an dem menschlichen Selbstverständnis als kreativem und intellektuellen Wesen.

Von Frank Witt  stammt der Begriff  von  KI  als Strukturverstärker. KI ist bzw. wirkt als eine soziotechnische Konstellation: Weder als neutrale Technik noch als autonomes System, sondern als ein Ensemble aus Algorithmen, Daten, Institutionen und Akteuren. KI reproduziert nicht nur bestehende gesellschaftliche Tendenzen, sondern verstärkt sie in vielen Fällen. KI beschleunigt, wirkt als Verstärker von Effizienz. Das gilt für  Überwachungsprozesse ebenso wie für kreative Prozesse. KI kann gesellschaftliche und ökonomische Macht verstärken – ihre Anwendung und Wirkung gehören in den öffentlichen Diskurs.
KI zeigt die ganze Ambivalenz mächtiger Technologien: Sie kann ebenso kreative Prozesse bereichern wie demokratische Diskurse untergraben, Wissensarbeit unterstützen wie  Desinformationskampagnen automatisieren. Sie kann ganze  Trollfabriken steuern oder als cocreatives Werkzeug genutzt werden.

Vor rund 25 Jahren, um die Jahrtausendwende, setzte sich das Internet in der Breite durch. Blicken wir  zurück,  gab es damals einen ersten Anlauf zu einem Internet der Konzerne, das heute oft vergessene Internet der Portale.
Zentrale Portale sollten den Einstieg ins Internet kontrollieren, Walled Gardens statt offener Suche und Navigation- ein klassisches Gatekeeper– Modell, top-down konstruiert. Portal-Websites dienten als zentrale Startseiten, über die Dienste wie Nachrichten, E-Mail, Chats, Shopping, Online-Banking gebündelt werden sollten.  AOL, Yahoo, Compuserve, Lycos, aber auch MSN (Microsoft Network)   und t- online waren die Protagonisten.

Bild: unsplash +

Dagegen formierte sich eine breite Bewegung für ein freies Internet ohne Gatekeeper mit offenen Standards und der Vision einer vernetzten Gesellschaft.  Das Modell der  proprietären Portale der Konzerne scheiterte.
Der Erfolg wirkte einige Jahre nach  und gab basisdemokratischen Strömungen Auftrieb. Man sprach von  Netzkultur – gemeint war ein von einer Community getragener  Standard.
Die schliesslich erfolgreiche Beherrschung  der digitalen Welt durch quasi-Monopole, gelang auf anderem Wege- beschrieben u.a. von Shoshana Zuboff (Überwachungskapitalismus) und Michael Seemann (Macht der Plattformen),  oft als  Landnahme durch Big Tech bezeichnet. Aus dem partizipativen Web 2.0  war wieder ein Internet der Konzerne – jetzt BigTech genannt –  geworden – mit neuen Formen von Kontrolle und Gewinnerzielung. .
Generative KI ist ein Kind dieses Social Web. Ohne dessen Datenfülle und die Digitalisierung des verfügbaren menschlichen Wissens gäbe es sie nicht. Die systematische Verknüpfung, Verdichtung und Automatisierung dieses Wissens war technisch eine logische Weiterentwicklung der Digitalisierung.
So wird technologische Disruption von quasi-Monopolen als Triebkraft gesellschaftlichen Fortschritts inszeniert – ein Fortschritt, der zunehmend mit neuen Formen des Autoritarismus in Verbindung gebracht wird.

Der Filmkomponist Matthias Hornschuh beschreibt in seiner Schrift Wir geben uns auf. KI, Kultur und die Entwertung der Wissensarbeit (die in dieser Woche als Buch erscheint, s.u.)  eine  systematische Entwertung kultureller Arbeit. Einer auf schnell erfassbare Oberflächenreize optimierten Welt setzt er den Wert kultureller Durchdringung entgegen.
An anderer Stelle hebt er das Prinzip der Autorenschaft hervor, zitiert dabei den Kunsttheoretiker Bazon Brock: Menschen, hinter denen nichts steht, kein Papst, kein Militär, kein garnichts, und die trotzdem angehört werden, weil das, was sie sagen, interessant und von Wichtigkeit ist, aufgrund ihrer Fähigkeit, Welterkenntnis zu eröffnen.
Wenn der Zufluss neuer, innovativer und vielfältiger Inhalte zu versiegen droht, dann müssen sich Staat, Gesellschaft und Volkswirtschaft auf eine geistige Dürre einstellen. Es stellt sich die nicht geringe Frage, wie eigentlich in Zukunft das Neue in die Welt gelangen soll.
Auch KI- Kritiker wie Rainer Mühlhoff und Kate Crawford  sprechen  an einigen Stellen  von entmenschlichender Technologie  – gemeint ist Vereinnahmung von Subjektivität durch technologische Systeme.

KI kann Ähnliches im Verschiedenen erkennen, aber  nicht intentional Muster brechen oder völlig neue konzeptionelle Verbindungen schaffen, die jenseits statistischer Wahrscheinlichkeiten liegen. KI ist gut darin, aus Trainingsdaten erworbenes Wissen anzuwenden,   logisches Denken jenseits erlernter Muster fällt ihr schwer. Die spannendsten Momente entstehen nicht durch perfekte Beherrschung von Mustern , sondern durch deren überraschende Brechung. Es setzt voraus, dass jemand will, dass etwas anders läuft – eine Intention, die KI allein nicht haben kann.

Der KI-Debatte fehlt bislang eine kulturelle Aneignung, eine tiefer gehende ästhetische Durchdringung. Etwas wie Andy Warhols Pop Art, die Konsumkultur kulturell verfügbar machte. Eine KI-Kunst, die weder die Technologie dämonisiert noch vergötzt, sondern ihre Möglichkeiten und Grenzen kreativ auslotet. So kann aus einer technologischen und politisch polarisierten Debatte eine gesellschaftliche werden.

Das Web 2.0 sollte alle zu Autoren machen, das KI- Web macht alle zu Objekten einer Praxis der Extraktion. Wer wird die Prozesse der Zukunft gestalten – und wer lässt sich von ihnen gestalten? – Technologie wird erst durch kulturelle Aneignung zu gesellschaftlicher Realität.

 

vgl.  Holger Schmidt:  Revolution der Arbeitswelt: Bots statt Folien. FAZ 3.09.25.  *Matthias Hornschuh:. Wir geben uns auf: KI, Kultur und die Entwertung der Wissensarbeit – 9/25; 96 S.  Matthias Koch & Patrick Mennig: Plattformökonomie am Ende? Welchen Einfluss haben KI, Metaverse und Nachhaltigkeit auf digitale Geschäftsmodelle?  Vgl. auch Frank Witt: Stille Umbrüche – Was KI wirklich verändert. (8/25) . und Künstliche Intelligenz: Transformation und Krisen in Wirtschaft und Gesellschaft  (5/25) 



SideMenu