Stille Umbrüche  – Was KI wirklich verändert. Rückblick auf das Autorengespräch im Kölner Startplatz

Buchvorstellung und Diskussion

Am letzten Donnerstag (28.08) hatten wir in den Kölner Startplatz eingeladen: Stille Umbrüche  – Was KI wirklich verändert, eine Diskussion  mit dem Autor Frank Witt.

Sein Buch  Künstliche Intelligenz: Transformation und Krisen in Wirtschaft und Gesellschaft war im Frühjahr diesen Jahres erschienen. Zu diesem Buch gab es auch in diesem Blog eine Rezension, eine weitere von Gunnar Sohn.
Seit 2023 ist der Startplatz  AI Hub  offizielles Innovationszentrum für die deutsche KI-Community in Köln und Düsseldorf. Somit eine erste Adresse für Veranstaltungen dieser Art.

Vorweg: Was der Veranstaltung an Masse fehlte, machte sie durch Klasse wett: Die engagierte Beteiligung und die beeindruckende technische Kompetenz der Teilnehmer führten dazu, dass die Diskussionen knapp zwei Stunden über den vorgesehenen Zeitrahmen hinausgingen.

Bereits die konzeptionelle Ausgangslage der Diskussion war  bemerkenswert und ging über die gängigen Muster hinaus: Die Grundidee einer wirkmächtigen künstlichen Intelligenz hat nur wenig mit klassischen programmierten Computern gemein und orientiert sich vielmehr an der Funktionsweise biologischer Gehirne. Wenn sich diese durch mathematische Modelle im Parallel-Computing funktional äquivalent simulieren lässt, dann kann KI prinzipiell auch zum eigenständigen Akteur in der Gesellschaft werden – eine These, die weit über technische Innovationsdebatten hinausweist.

Der Vortrag bot einen differenzierten Blick auf die tiefgreifenden Umbrüche, die mit der Entwicklung und Integration von Künstlicher Intelligenz (KI) einhergehen. Im Zentrum stand die These, dass KI nicht nur eine technische, sondern vor allem eine gesellschaftliche Herausforderung darstellt.

Frank Witt, promovierter Philosoph und systemtheoretisch geschulter Beobachter technischer Entwicklungen, machte von Beginn an deutlich: Es geht nicht um Technikoptimismus oder Fortschrittsgläubigkeit, sondern um die kritische Reflexion eines Wandels, der bereits in vollem Gange ist. KI verändert nicht nur Produktionsweisen oder Kommunikationsformen, sondern greift tief in gesellschaftliche Machtverhältnisse und institutionelle Strukturen ein.

Strukturverstärkende Effekte von KI.

Witt beschrieb KI als soziotechnische Konstellation: Weder als neutrale Technik noch als autonomes System, sondern als ein Ensemble aus Algorithmen, Daten, Institutionen und Akteuren. Er zeigte, dass KI bestehende gesellschaftliche Tendenzen nicht einfach nur reproduziert, sondern in vielen Fällen sogar verstärkt:

  • In der Wirtschaft führt der Einsatz von KI zu neuen Rationalisierungsstrategien, zu Effizienzgewinnen, aber auch zur Prekarisierung von Arbeit.
  • Im Sozialen wird die Logik der Bewertung, Selektion und Überwachung durch algorithmische Systeme forciert.
  • In Organisationen können durch KI neue Formen von Kontrolle entstehen, die wenig Raum für Eigenverantwortung und Gestaltung lassen.

KI ist also nicht nur Werkzeug, sondern auch Strukturverstärker. Sie wirkt nicht nur auf der Ebene der Funktionen, sondern auch auf der Ebene der gesellschaftlichen Leitbilder.

Chancen, Risiken und der schmale Grat der Gestaltung

Die Diskussion bewegte sich entlang des Spannungsfeldes zwischen Innovationspotenzial und gesellschaftlicher Verantwortung. Witt betonte, dass KI große Möglichkeiten birgt: von der Automatisierung monotoner Aufgaben bis zur besseren Auswertung komplexer Daten. Gleichzeitig warnte er vor einem blinden Technikimport:

Die Digitalisierung wird oft als alternativlos dargestellt. Doch wir sollten fragen: Welche Gesellschaft wollen wir gestalten? Und welche Rolle soll Technik darin spielen?

Gerade im Bildungsbereich sei eine kritische Auseinandersetzung mit KI notwendig. Nicht nur die Techniknutzung, sondern die Reflexion über ihre Wirkmechanismen, impliziten Normen und gesellschaftlichen Auswirkungen sei entscheidend.

Kritik an Digitalisierungspolitik und den überformten Fortschrittsnarrativen

Witt übte deutliche Kritik an politischen Programmen zur Digitalisierung. Er sprach von einer “Verengung des Fortschrittsbegriffs”:

  • Digitalisierung werde vorrangig als Standortpolitik verstanden.
  • Die Frage nach Gemeinwohl, Partizipation und sozialer Gerechtigkeit werde zur Nebensache.

Dabei, so Witt, wäre gerade jetzt eine breite gesellschaftliche Debatte über die Zielsetzungen und Rahmenbedingungen digitaler Transformation notwendig.

Der Begriff der “Stillen Umbrüche”

Im Zentrum des Buches steht der Begriff der “Stillen Umbrüche”. Damit meint Witt keine plötzlichen Revolutionen, sondern die allmähliche, oft kaum bemerkte Veränderung grundlegender Verhältnisse:

  • Die Aufweichung klarer Erwerbsbiografien.
  • Neue Abhängigkeiten in der Plattformökonomie.
  • Die Verschiebung von Entscheidungsmacht zu Unternehmen und Algorithmen.

Diese Veränderungen geschehen oft leise, aber nachhaltig. Sie verändern das Verhältnis von Mensch, Arbeit und Gesellschaft langfristig.

KI und Bildung: Jenseits der Anpassung

Ein besonderer Fokus lag auf dem Bildungssystem. Witt forderte, Bildung dürfe sich nicht in der Vermittlung digitaler Kompetenzen erschöpfen. Vielmehr gehe es um:

    • kritisches Denken,
    • ethische Urteilsbildung,
    • Gestaltungskompetenz.

Die Schule der Zukunft müsse ein Ort der Aufklärung und nicht nur der Techniknutzung sein.

Verantwortung als Gestaltungsperspektive

Zum Abschluss betonte Witt, dass die Frage nicht sei, ob KI kommt oder nicht, sondern wie wir mit ihr umgehen: Technik ist gestaltbar. Aber nur, wenn wir uns dieser Gestaltungsaufgabe aktiv stellen.

Als Moderator steuerte ich einige Impulse aus Soziologie und Zeitgeschichte bei – ansonsten war wenig Moderation nötig – die Diskussion steuerte sich selbst. Die Veranstaltung zeigte eindrucksvoll, dass eine fundierte Debatte über KI nicht nur möglich, sondern notwendig ist.

Fazit:
Der Vortrag war ein Plädoyer für eine reflektierte, gesellschaftlich eingebettete Auseinandersetzung mit KI. Sie richtete sich an alle, die jenseits von Hype und Untergangsszenarien nach Wegen suchen, KI demokratisch, gerecht und verantwortungsvoll zu gestalten. In der anschliessenden Diskussion kamen zahlreiche weitere Details zur Sprache – und auch die Feststellung, dass wir in der KI noch in einer Frühstufe stehen.
Witts Analyse fügt sich in eine wachsende kritische Literatur ein, die die gesellschaftlichen Dimensionen der KI-Transformation ernst nimmt.
Rainer Mühlhoffs Künstliche Intelligenz und der neue Faschismus thematisiert  die ideologischen Verknüpfungen zwischen Tech-Eliten und autoritären Bewegungen, wie auch in diesem Blog  die Herausbildung neuer  Machtsysteme. immer wieder Thema war.
Karen Haos Empire of AI deckt imperiale Strukturen der KI-Industrie  auf. Frank Witt bietet eine  systemtheoretische Perspektive, die von der Entstehung und der Struktur von KI ausgeht, auf die  strukturverstärkenden Effekte von KI-Systemen.
Entgegen andere Schüben der Digitalisierung fehlt KI die breite Beteiligung einer Bewegung, die Umbrüche mitgestaltet. KI erschien ready-to-use aus der Hand und in der Kontrolle von BigTech Konzernen.

KI kann nicht als neutrale Technologie begriffen werden, sondern als soziotechnische Konstellation, die bestehende Machtverhältnisse reproduziert und verstärkt.
Aktuell polarisiert sich – entsprechend der politischen Großwetterlage – auch die KI-Diskussion zwischen imperialen Tech-Ambitionen und fundamentalistischer Technikkritik. Die Veranstaltung erinnerte daran, dass Technik immer auch eine Frage der gesellschaftlichen Wahl ist – und damit der demokratischen Gestaltung.

Die Stillen Umbrüche werden nur dann gestaltbar, wenn sie sichtbar gemacht und zum Gegenstand öffentlicher Deliberation werden. Darin liegt die politische Dimension einer kritischen KI-Forschung, die über technische Machbarkeit hinausfragt und die Bedingungen demokratischer Teilhabe in den Mittelpunkt stellt.

Frank H. Witt: Künstliche Intelligenz: Transformation und Krisen in Wirtschaft und Gesellschaft-UVK Verlag , 220 S. –  auf yt: Wittgenstein und Turing: KI als kumulative Innovation   Im Blog: Rezension zu:  Empire of AI – Dreams and Nightmares in Sam Altman’s Open AI –  Rezension zu:  Künstliche Intelligenz und der neue Faschismus . Rezension zu: Künstliche Intelligenz: Transformation und Krisen in Wirtschaft und Gesellschaft



Empire of AI – Dreams and Nightmares in Sam Altman’s Open AI (Rez.)

extraktiver Kolonialismus

An diesem Buch kommt  nicht vorbei, wer sich ernsthaft mit der gesellschaftlichen Dimension von KI befasst.
Karen Haos Empire of AI erschien bereits vor drei Monaten. Spät dabei zu sein, bringt auch den Vorteil mit sich, dass man erste Reaktionen und Rezensionen in die eigene Besprechung einfließen lassen kann.
Empire of AI wurde nahezu durchgängig positiv hervorgehoben – als kritische, detailreiche Analyse der globalen KI-Industrie und ihrer imperialen Strukturen – hervorragend und gründlich recherchiert, mit kritischem Insiderwissen als Hintergrund.
Wer das Silicon Valley der 2020er Jahre, den KI-Boom und seine weltweiten Auswirkungen mit nur einem Buch verstehen möchte, sollte dieses lesen.

Karen Hao schreibt nicht von außen über die KI-Industrie. Empire of AI lässt sich als journalistische Ethnographie lesen. Teilnehmende Beobachtung ist der Rahmen. Persönliche Erlebnisse fließen ein, die Basis der Analysen sind aber über 300 Interviews, ergänzt durch Korrespondenzen und andere Dokumente.

Karen Hao war über Jahre hinweg Teil des Ecosystems in dem sich KI- Unternehmen entwickelten. Sie teilte Wohnungen mit Entwickler:innen, nahm an internen Treffen teil und führte Hintergrundgespräche mit Gründerfiguren wie Sam Altman.  I was the first journalist to profile OpenAI. I embedded within the company for three days in 2019 sagte sie in einem Interview.
Ihre Sichtweise changiert zwischen Beschreibung aus der Nähe und Analyse, diese Spannung macht den Wert ihrer Darstellung aus. Der Text bleibt dabei auf immerhin 482 Seiten gut lesbar.

Etwas überrascht hat mich, dass Karen Hao an keiner Stelle den Atlas of AI von Kate Crawford (2021) erwähnt. Beide Autorinnen benennen die extraktive Logik der KI, beide analysieren globale Machtasymmetrien und die Auslagerung von Datenarbeit als crowdworking, thematisieren eine  postkoloniale Ausbeutung, beide argumentieren kritisch gegenüber dem Silicon Valley.
Crawfords Buch ist eher akademisch, in den Critical Data Studies verankert. Hao geht es um investigative  Aufklärung. Beide Bücher ergänzen sich in ihrer Wirkung und  ihrer kritischen Perspektive .

Kaum eine Technik ist unschuldig – und KI ist es auch nicht. Zentrales Thema des Buches ist der Widerspruch zwischen dem Versprechen einer künstlichen allgemeinen Intelligenz, einer Technik, die der gesamten Menschheit zugute kommen sollte und der  messy, secretive reality behind OpenAI’s bid to save the world  -wie es die Autorin  bereits im Februar 2020 schrieb.

KI, wie generell digitale Techniken, wird meist als dematerialisiert wahrgenommen. Das mag in der Endausgabe so erscheinen. Letztlich beruht KI aber auf der Abschöpfung materieller, energetischer, kultureller und kognitiver Ressourcen:
Benötigte Ressourcen sind so breit gestreut wie seltene Erden und andere Mineralien, Energie, Wasser, ausgelagerte menschliche Arbeitskraft, kulturelle Produkte, digitalisiertes menschliches Wissen, die Datenfülle der Plattformen etc. – Ohne all diese Ressourcen gäbe es KI nicht.

OpenAI wurde mit dem Anspruch auf Transparenz gegründet. Im Vordergrund stand die Idee, eine künstliche Intelligenz zu entwickeln, die value for everyone rather than shareholders schafft – einen Nutzen der weltweit gerecht verteilt werden sollte, jenseits privatwirtschaftlicher Interessen.
In der OpenAI Charter, einer Art ethischem Leitbild bzw. selbstgegebener Verfassung, heisst es: To ensure that artificial general intelligence benefits all of humanity und weiter: We are committed to broad distribution of benefits and long-term safety, and to cooperative orientation with other research and policy institutions. 
Hao setzte dem schon 2020 eine Beschreibung der realen Logik entgegen: Nicht das ethische Leitbild treibt das Handeln an, sondern die Angst, den entscheidenden Innovationsschub zu verpassen.
The need to be first or perish
beschreibt die geltende Systemlogik, unter der das Unternehmen längst operiert. Das ursprüngliche Versprechen, eine künstliche Intelligenz zum Wohle aller zu entwickeln, steht heute im Spannungsverhältnis zu einem beschleunigten Innovationswettlauf, der sich durch die geopolitische Konstellationen verschärft: Die Entwicklung leistungsfähiger KI gilt zunehmend als strategischer Standortvorteil – technologisch, wirtschaftlich und militärisch. OpenAI bewegt sich in einem globalen Wettbewerb, in dem China als systemischer Rivale wahrgenommen wird.
Die Weiterentwicklung folgt in erster Linie der Logik des Venture Capitals, nicht der einer am Gemeinwohl orientierten Forschung. Hinzu kommt die enge Partnerschaft mit Microsoft die der ehemals gemeinnützigen Organisation eine neue Abhängigkeit schafft. Microsoft stellt nicht nur die notwendige Cloud-Infrastruktur bereit, sondern hat sich durch Milliarden-Investitionen direkten Zugang zu OpenAIs Technologien gesichert.

Die Idee einer Artificial General Intelligence  (AGI) – einer künstlichen Intelligenz, die den Menschen übertrifft oder gleichkommt – dient bei OpenAI als als strategisches Legitimationsnarrativ für gegenwärtige Entscheidungen  (vgl. Who is building a brain for the world?). 
OpenAI leitet aus der erwarteten Entwicklung von AGI den Anspruch ab, als vorausschauende Instanz zu handeln: to shape AGI before it shapes us. Damit erhebt das Unternehmen den Anspruch auf eine Mehrfachrolle als technischer Wegbereiter, ethischer Regulator und politischer Akteur.
AGI wird so zur Legitimationsfigur für weitreichende Entscheidungen – die Intransparenz bei GPT-4, die Einschränkung von Open Source oder die gezielte Bündelung von Ressourcen. Je größer die angenommene AGI-Gefahr, desto plausibler erscheint es, ihre Entwicklung wenigen, vermeintlich verantwortlichen Akteuren zu überlassen.
Ein Ziel, das bisher nicht erreicht wurde, verleiht dem Unternehmen bereits heute eine außerordentliche Stellung. Hao nennt es eine  quasi- religiöse Rhetorik – ich würde es als  tragenden Mythos bezeichnen.

Sam Altman, CEO von Open AI, wird  von Hao als ambivalente Schlüsselfigur beschrieben: als visionärer Kopf für eine transformative Technologie, zugleich geschickter Machtpolitiker – brillant, ideologisch flexibel, auf dem Grat zwischen Weltrettung  und dem Aufbau eines Imperiums.
Ein kennzeichnender Satz:   Every single person that has ever clashed with him about his vision of AI development has left.

KI-Unternehmen verschieben den Fokus digitaler Macht: Plattformen wie Amazon oder Facebook lieferten standardisierte Angebote und personalisierte Werbung. KI-Systeme hingegen erzeugen singularisierte Texte, Bilder oder Entscheidungen – oft in Echtzeit, oft einmalig. Diese Form automatisierter Einmaligkeit hebt sich deutlich von der Logik der klassischen Plattformökonomie ab (vgl. Automatisierte Singularisierung – KI und die Herstellung von Einmaligkeit)

Effektiver Altruismus (EA) bedeutet eine rational optimierte Philanthropie. Laut Hao durchlief EA eine bemerkenswerte Wandlung: von einer philosophischen Nischenbewegung zu einem dominanten Mainstream-Diskurs, mittlerweile hochgradig institutionalisiert und finanziell gut ausgestattet. EA dient als ethische Grundlage für die KI-Entwicklung und legitimiert dabei die Machtkonzentration bei wenigen Akteuren.
Insbesondere Anthropic (Betreiber von Claude Sonnet)  orientiert  sich an EA und hat sich mit Constitutional AI eine daran angelehnte Verfassung gegeben, die grundlegende normative Werte sicher stellen soll.
Karen Hao kritisiert aber auch die Praxis des Effektiven Altruismus als moralisierenden Vorwand für imperiale Praktiken, Ausbeutung und Machtkonzentration. Sie mahnt an, dass EA im Kontext der KI zu einer Legitimationsstrategie verkommen kann, die globale Ungleichheiten verstärkt, anstatt sie zu überwinden. Paradoxerweise kann EA durch seine Rationalisierung des Guten selbst zu einer Form technokratischer Herrschaft werden – was bei Kritikern auch so gesehen wird.

Karen Hao liefert keine Technikgeschichte und bedient keinen Fortschrittsnarrativ. Sie schreibt auch nicht über die Anwendungsmöglichkeiten in Medizin oder Klimaforschung. Ihr Interesse gilt unter welchen Voraussetzungen technische Potenziale entstehen – der Aufklärung über ihre Entstehungsbedingungen, Machtkonzentrationen und Versprechen. Ihre Frage ist nicht, was KI könnte – sondern was sie darf, wofür sie eingesetzt wird und wer darüber entscheidet.
Trotz ihrer demokratischen Gründungsnarrative bleiben die Innovationen der KI- Unternehmen in der Logik des Profits, der Kontrolle und der geopolitischen Interessen verhaftet – nicht anders, als man es bisher aus  der Tech Branche kennt. Die wenigen Unternehmen, die die leistungsfähigsten Modelle kontrollieren, haben massgeblichen Einfluss auf Diskurse, Bildung, Wissenschaft und gesellschaftliche Meinungsbildung. Sie entwickeln sich über multinationale Konzerne hinaus zu Imperien – so knüpft der Titel Empire of AI  an  frühere koloniale Imperien an. 

In einem Guest Essay der NewYork Times, kurz nach Erscheinen des Buches, formuliert die Autorin ihre aktuelle Sicht: Tech companies have long reaped the benefits of a friendly U.S. government, but the Trump administration has made clear that it will now grant new firepower to the industry’s ambitions. 
Das Streben nach KI bietet Unternehmen die Möglichkeit, mehr Daten als je zuvor abzusaugen, mit tiefgreifenden Auswirkungen auf die Privatsphäre und die Rechte des geistigen Eigentums der Menschen.

Die Diskussion zu KI hat sich in den letzten Monaten – entsprechend den politischen Ereignissen –  polarisiert bzw. verengt. Der Fortschrittsnarrativ verbindet sich immer stärker mit den imperialen Ambitionen von Big Tech, technologische Entwicklung wird als Grundlage globaler Machtarchitektur gesehen.
Auf der anderen Seite formiert sich eine scharfe Gegenbewegung, die in ihrer Fundamentalkritik oft luddistische und kulturpessimistische Züge annimmt. Begriffe wie Digitaler/ KI  Faschismus werden verwendet, die Technologie als solche diabolisiert.
Differenzierte Einschätzungen geraten in den Hintergrund. Dabei ist es gerade diese Haltung, die angesichts wachsender Alltagsnutzung – auch durch die Kritiker:innen selbst – Gestaltung ermöglicht.
Wer kontrolliert Technologie? Wie werden Nutzen und Risiken verteilt? Welche Gestaltungsmöglichkeiten haben wir (noch)?

 

Karen Hao: Empire of AI.:- Dreams and Nightmares in Sam Altman’s Open AI., New York 2025. : Silicon Valley Is at an Inflection Point. New York Time. 30.05.2025  – Karen Hao on How AI Colonialism Is Threatening the World.  . Democracy Now, 4.06.2025 – Inside the story that enraged OpenAi.MIT Technology Review. 19.05.2025.    The messy, secretive reality behind OpenAI’s bid to save the world. MIT Technology Review. 17.02.2020. Brian Merchant and Gail Brussel: Dismantling the Empire of AI with Karen Hao. Blood in the Machine.May 2025 Matteo Wang: The AI Industry Is Radicalizing. The tech industry and its critics occupy parallel universes. The Atlantic 12.07.25



KI 2025 – und die Einstellungen dazu

geprompted, nicht gezeichnet: KI-Titel der Neuausgabe des Zauberberg von  Thomas Mann

Auch im dritten Jahr nach ChatGPT bleibt generative KI ein vorrangiges Thema. Aus dem Stadium des Hype entsprechend dem Gartner Hype Cycle™ ist KI längst herausgewachsen, bleibt aber eine mit Innovationsversprechen verbundene gesellschaftliche Obsession.
Die Diskussion  ist von Nutzungserfahrungen, aber ebenso von politischen Einschätzungen bestimmt, die oft schwer zu überschauen sind.

Generative KI ist ein Kind des Social Web. Ohne dessen Datenfülle und die Digitalisierung des verfügbaren menschlichen Wissens gäbe es sie nicht. Die systematische Verknüpfung, Verdichtung und Automatisierung dieses Wissens war technisch eine logische Weiterentwicklung der Digitalisierung.

Das Chatfenster ist die Benutzeroberfläche, natürliche Sprache – vorausgesetzt man versteht Prompting-Befehle als solche – dient als Betriebssystem. Wir können mit der KI chatten, sie auffordern, ein Buchcover zu Literaturklassikern (s.o.) zu gestalten – oder einen Essay dazu zu schreiben.  Die KI liefert uns Ergebnisse, doch bis diese unseren Vorstellungen entsprechen, ist es ein Weg mit vielen Arbeitsschritten. Der Mensch füttert und steuert die KI, und entscheidet, wofür sie eingesetzt wird.
Manche Dinge kann die KI aus dem Stand: Übersetzungen, Wissensabfrage, Code- Snippets, Transkriptionen etc. KI automatisiert primär das, was ohnehin schon standardisiert war. Bei allem anderen bleibt sie Werkzeug, nicht Ersatz.

Wie schlagen sich drei Jahre generative KI in den Haltungen und Einstellungen nieder? Welche positiven und welche negativen Einschätzungen haben sich verfestigt?
Die Einstellungen zu KI  hängen von den Erfahrungsebenen  ab: Als aktives Werkzeug wird sie meist positiv erlebt; als fremdgesteuertes System erzeugt sie Abhängigkeit. Autonom ist KI nie – sie führt stets menschlich gesetzte Regeln aus, deren Bewertung wiederum von der Perspektive der Betroffenen abhängt.
Carsten Rossi, Agenturchef aus Köln, fasste in einem Video auf LinkedIn seine Nutzungserfahrung zusammen, die für viele Kreativarbeiter stehen kann: KI ist keine Wahrheitsmaschine. Ihre Stärke liegt im divergenten Denken, also in der Generierung einer Vielzahl von Ideen und Lösungswegen für ein Problem.
Divergentes Denken öffnet den Raum für multiple Lösungswege und Innovation, während konvergentes Denken zu einer einzigen, korrekten Antwort führt. Der Mensch als Nutzer bleibt für Angemessenheit (Appropriateness) verantwortlich.
Ähnliche Erfahrungen werden von Journalisten genannt.
KI wird als nützliches Werkzeug erlebt und verstanden, wird in der Breite und auch mit Spass dabei eingesetzt. Generell wird KI als Erweiterung kreativer Möglichkeiten erlebt. 

Andere Nutzungserfahrungen gibt es in anderen Branchen. KI reorganisiert bestehende  Wissensbestände, macht sie auf neue Weise zugänglich. In manchen Branchen gibt es messbaren Nutzen  (Rechtsdatenbank-Durchsuchung, Radiologie-Auswertung, Code-Debugging) und eine jeweils entsprechende, meist positive Resonanz. In Branchen mit interpretativen Aufgaben (Marktforschung, Personalauswahl, kreative Beratung) bleibt die Resonanz  ambivalent. Entscheidend ist letztlich, wie sinnvoll die  einzelnen Lösungen erlebt werden.
KI ist längst nicht nur Technik, sondern auch ein Markt, der sich selbst antreibt. KI- Experten profilieren sich mit Wissens- und Erfahrungsvorsprüngen.  Konferenzen/ Events zu KI, Beratung und  Fortbildung boomen.

Das Chatfenster ist nur das eine Gesicht der KI das andere ist zunehmend Embedded AI in technischen Systemen (z. B. Autos, Kameras, Industrieanlagen) bzw. implementierte KI. Letztere ist selten sichtbar, sie kommt nicht als große neue Maschine daher, sondern wird unauffällig in bestehende Systeme eingebaut – von HR-Software über Kreditscoring, dynamische Preisgestaltung bis hin zu Predictive Policing. Sie folgen eindeutigen Algorithmen ohne Raum für kreative Exploration.
Es ist dieses – kontrollierende – Gesicht, das Unbehagen verursacht. Der amerikanische Soziologe George Ritzer meinte dazu: The control exercised by AI is more insidious than that of other non-human technologies because it is largely invisible*

Standardwerk zur materiellen Dimension von KI – mit Klick gelangt man zur Rezension

Eine ausführlich begründete und wohl formulierte Kritik liefert Kate Crawford mit dem Atlas of AI.  Sie beschreibt KI als Metamaschine und zugleich als extraktive Industrie. Auch vier Jahre nach dem Erscheinen der Originalausgabe (2021) bleibt  der Atlas ein Schlüsselwerk zur Diskussion der strukturellen, sozialen und ökologischen Dimensionen von KI. Die von Crawford aufgezeigten physischen und gesellschaftlichen Kosten haben sich seither nicht relativiert, sondern verstärkt. Alle von ihr identifizierten Problembereiche haben an Intensität gewonnen – von der Umweltbelastung über die Abhängigkeit von kritischen Rohstoffen bis hin zur Konzentration wirtschaftlicher Macht in den Händen weniger Konzerne (vgl. Rezension).

An die materielle Extraktion schliesst die kulturelle Extraktion an: LLM systems harvest everything that can be made digital, and then use it to train corporate AI models – so die Autorin 2023 in einem Interview.

Rohstoff von KI –  Anthropic umging die Lizenzfrage mit dem händischen Einscannen von Millionen gebrauchter Bücher. Bild: unsplash unlimited- Gustavo Reyes

KI-Systeme werden mit immensen Beständen an Texten, Bildern, Musikstücken, Memes und anderen kulturellen Artefakten trainiert – von gemeinfrei bis urheberrechtlich geschützt. Fast das gesamte Internet mit seinen gesammelten kollektiven Wissen und kulturellen Ressourcen  wurde verfüttert. KI produziert aus ihnen neue (oft exklusive und kommerziell verwertbare) Bedeutungen.
Die Opposition gegen die Aneignung durch kulturelle Extraktion  differenziert sich nach Branchen: abgesehen von literarischen Werken haben Texte selten Werkcharakter, Textarbeiter nutzen zudem KI oft selber,  der Widerstand ist gering. Photos und Illustrationen sind stärker mit Autorenschaft und Stil verbunden und klarer urheberrechtlich geschützt. V. a. der Markt für Stockphotos- und illustrationen wird von KI verdrängt.
Musiker und Komponisten sind am stärksten von direkten Lizenzeinnahmen abhängig, ihre Einkommenslage am unmittelbarsten von KI bedrängt. So gibt es hier den ausgeprägtesten organisierten Widerstand.

Die Logik der Extraktion –  materiell und kulturell – führt direkt in die politische Dimension.  Datenhoheit ist Machtfaktor.
Seit der zweiten Trump-Wahl, dem Aufstieg des Populismus und dem Sturz der Ampel hat sich das politische Klima verschärft und polarisiert. Diese Polarisierung begünstigt radikale Diagnosen und Zuspitzungen. Ein übergreifender Konsens zwischen politischen  Lagern  schwindet.
In den USA entsteht ein neues oligarchisches Machtsystem – eine Verklumpung aus Rechtspopulismus, digitalem Kapitalismus und technokratischer Macht, angereichert mit diffusen Zukunftstheorien und reichlich persönlichem Narzissmus.
Der Auftritt der Tech-CEOs bei der Amtseinführung Trumps wurde international als Bekenntnis zu diesem neuen Machtsystem verstanden – auch wenn die Ansichten darüber auseinandergehen, wie geschlossen dieses System tatsächlich ist.

Ein Machtsystem, in dem man faschistoide Tendenzen erkennen kann. Ich habe es als Mash- Up/ Verklumpung beschrieben – seine Bestandteile sind (noch) zu konfus, um es als konsistentes Herrschaftssystem zu erkennen. Die Demokratie wird zwar angegriffen, besteht aber weiterhin.
Faschismus ist ein schwerwiegendes Wort, eine Keule, Ausdruck von Unvereinbarkeit, eine Art Exkommunikation aus der Gemeinschaft der Demokraten.
Keine Frage, dass die Verklumpung ein faschistisches Potential beinhaltet, das Möglichkeiten von Datenanalyse- und KI-Technologie nutzt, um den Rechtsstaat auszuschalten. Eine technokratische Vision ist ein schlanker, auf Automatisierung und Präemption basierender Apparat. Ein intransparenter Einsatz von Algorithmen funktioniert  dabei als Herrschaftswerkzeug.
Eine fundamentale Kritik an KI ist in ihren Aussagen radikaler geworden. Zwar distanziert sich etwa Rainer Mühlhoff in Künstliche Intelligenz und der neue Faschismus  (vgl. Rez.), von einer zwangsläufigen Entwicklung zu einem technokratischen bis faschistischen Staatswesen,  doch wird KI häufig eine ideologische und technologische Affinität zum  Faschismus zugeschrieben.
AI is a perfect example for the capitalism-to-fascism pipeline. It embodies capitalism and carries the seed of fascism –  so fasst es Malte Engeler, Jurist und Digital- Aktivist zusammen. KI ist technologisch nicht neutral, sondern spiegelt die Bedingungen und Ideologien ihrer Betreiber. KI gilt in dieser Argumentation  als totale Mobilisierung des Kapitalismus.
Die Kritik richtet sich insbesondere gegen Präemption, die Logik der Vorwegnahme von Entscheidungen. Im schlimmsten Falle eine Menschensortier-Technologie mit folgender Ungleichbehandlung, die gesellschaftliche Teilhabe so selektiert.

So berechtigt diese Kritiken im Detail sein mögen – sie vermengen Technologie- und Machtkritik. Präemption ist zweifellos ein mögliches Einsatzfeld von KI. Doch rechtfertigt dies die Dämonisierung einer Technologie, die in anderen Bereichen als nützlich und sinnvoll erlebt wird?  Technologie ist Macht, KI wahrscheinlich in besonderem Maße. Eine fundamentale Ablehnung bedeutet auch einen Rückzug aus den Gestaltungsmöglichkeiten.

In der Debatte um eine Superintelligenz/ AGI (Artificial General Intelligence)vermengen sich technische Spekulation, kommerzielle Interessen und endzeitliche Phantasien. Rainer Mühlhoff sieht darin eine absichtliche Überzeichnung von KI-Möglichkeiten und -Risiken, die im weiteren eine anti-demokratische Überhöhung von Technologie bedeutet – im utopischen als auch im apokalyptischen Sinne. Mit der technischen Realität von KI hat AGI  nichts zu tun.

Anders als frühere Digitalisierungsschübe ist KI nicht mit einer breiten sozialen Bewegung verbunden. Die Verbreitung des Internet war von partizipatorischen Visionen getragen, die oft auch Diskurshoheit gewannen. Technologischer und gesellschaftlicher Fortschritt wurden als Einheit erlebt. KI erscheint dagegen als Top-Down-Durchsetzung ohne demokratische Partizipation.

Ein Blick in die US-Tech-Szene zeigt ähnliche Radikalisierungen: Auf der einen Seite Evangelisten, Start-up-Gründer und Longtermisten, die Superintelligenz als unausweichlich predigen. Auf der anderen Seite Kritiker, die Chatbots als stochastic parrots oder racist piles of linear algebra abtun und deren Zusammenbruch voraussagen. Zwischen diesen auseinander drängenden Haltungen bleibt wenig Raum für die Auseinandersetzung mit den realen KI-Effekten: Effizienz- und Kreativitätsgewinne vs Umweltkosten, sozialer Ungleichheit, extraktiver Raubbau.

Ein Gedanke kam mir beim Schreiben immer wieder: Vielleicht braucht KI eine ästhetische Durchdringung – etwas wie Andy Warhols Pop Art, die Konsumkultur kulturell verfügbar machte. Eine KI-Kunst, die weder die Technologie dämonisiert noch vergötzt, sondern ihre Möglichkeiten und Grenzen kreativ auslotet. So kann aus  einer technologisch und polarisiert- politischen Debatte eine gesellschaftliche werden.

Abschliessend ein Veranstaltungshinweis:
Diskussions- und Vortragsveranstaltung zum Buch von Frank Witt  Künstliche Intelligenz: Transformation und Krisen in Wirtschaft und Gesellschaft am Donnerstag dem 28.08.2025 im Startplatz Mediapark 5 Köln 19:30
Anmeldung beim Startplatz.
Ich freue mich, einige meiner Leser zu sehen 😉

vgl auch:  Rezension zu Rainer Mühlhoff : Künstliche Intelligenz und der neue Faschismus. Reclam Verlag  Juli 2025. : David GolumbiaCyberlibertarians’ Digital Deletion of the Left.  und Tech- Faschismus – Ein Mash-Up als Machtsystem (in diesem Blog) ** vgl.: LOOPS Fascist AI with Malte Engeler and Tante. Aufzeichnung vom 3.07.25 , Berlin  * George Ritzer: McDonaldization and Artificial Intelligence 4/2024 Matteo Wang: The AI Industry Is Radicalizing. The tech industry and its critics occupy parallel universes. The Atlantic 12.07.25

 



Künstliche Intelligenz und der neue Faschismus (Rezension)

Künstliche Intelligenz und der neue Faschismusdas kompakte Büchlein  bringt zwei Themen zusammen, die uns seit einiger Zeit intensiv beschäftigen.
Autor Rainer Mühlhoff ist Professor für Ethik der Künstlichen Intelligenz an der Universität Osnabrück. Bereits im Februar hatte er in einem Beitrag im Verfassungsblog wesentliche Gedanken zusammengestellt, die jetzt weiter ausgearbeitet vorliegen.
160 Seiten im Reclam- Format passen in die Jackentasche für unterwegs, der Inhalt ist gut gegliedert, in Etappen lesbar und kostet mit 8 € nur etwas mehr als eine Wochenzeitung.

Der Hype um KI setzte mit dem Start von  ChatGTP im Winter 22/23 ein. Seitdem hat uns das Thema nicht mehr losgelassen. Ob man heute noch von einem Hype sprechen kann ist Ansichtssache. Zu sehr haben sich Nutzung und breite gesellschaftliche Resonanz von KI verstetigt. KI wird allerdings von wenigen Tech- Konzernen beherrscht – mit der Gefahr von Monopolisierung und Machtkonzentration.
Es war der Schulterschluss zwischen den Tech- Oligarchen und Trumps Maga- Bewegung – sichtbar  auf den Bildern von Trumps Amtseinführung – der sich einprägte. Rundum dieses Datum, etwa von Nov. 24 bis März 25, gab es Ereignisse, die man zuvor nicht für möglich gehalten hatte.

mittlerweile von Trump getrennt – aber der  Symbolgehalt des Bildes bleibt

Ereignisse wie die innenpolitische Machtübernahmen via DOGE, aussenpolitische Übergriffe gegenüber Verbündeten und szenische  Stunts wie Elon Musks  Nazi-Gruss vor den Augen der Weltöffentlichkeit.

Mittlerweile ist ein halbes Jahr vergangen. Eine Zeitspanne, in der Bücher dazu geschrieben und veröffentlicht werden. Bisher hat die Entwicklung zwar nicht gedreht oder an Bedeutung verloren, die Ereignisse überraschen nur nicht mehr so sehr. Nicht nur in den USA breiten sich in einer Art Trickle-Down-Effekt  autoritäre Tendenzen – getragen von Tech-Macht, Populismus und gezielten Kulturkämpfen –  aus und bedrohen liberale Demokratien und eine auf Verträgen beruhende Weltordnung.

Vorweg: ein sinnvolles und sehr nützliches Buch, mit dem ich in den meisten Teilen übereinstimme (vgl. meinen Blogbeitrag Tech- Faschismus – Ein Mash-Up als Machtsystem).
Grundthese ist, dass aus der Synergie von Alt- Right Politik und elitistischen Tech- Ideologien ein faschistisches Potential erwächst. Meine Zustimmung.
Skeptisch macht mich allerdings die behauptete ideologische und technologische Affinität von KI und Faschismus auf mehreren Ebenen – mit dem Verweis, dass bestimmte technologische Logiken mit autoritären, menschenverachtenden und antidemokratischen Ideologien besonders kompatibel seien (S. 12). Mühlhoff relativiert die These der spezifischen Faschismus- Affinität von KI zwar immer wieder, sie zieht sich jedoch durch den ganzen Text.
Drei Merkmale hält er fest, an denen faschistische Tendenzen erkannt werden sollten: Antidemokratisches Wirken, Gewaltbereitschaft  und die Nutzung von Technologie als Machtinstrument. KI kann leicht von den Interessen autoritärer und faschistoider politischer Kräfte vereinnahmt werden  – und wird es zum Teil bereits schon jetzt (vgl. S. 14 ff). 
Präemption – die Logik der Vorwegnahme –
ist ein Schlüsselbegriff in seiner Argumentation. Menschliche Zukunft wird antizipiert, bewertet und gesteuert, bevor tatsächliches Handeln überhaupt stattgefunden hat. Im schlimmsten Falle eine Menschensortier-Technologie mit folgender Ungleichbehandlung. Die Kontrolle über Entscheidungen wird an vordefinierte Systeme abgegeben, gesellschaftliche Teilhabe so selektiert.
KI ist für Mühlhoff im wesentlichen eine Technologie zur Ansammlung, Sicherung und Ausübung von Kontrolle,  und ist mit der Gefahr eines neuen, smarten Faschismus verbunden. Ohne demokratische Kontrolle und staatliche Regulierung eignen sich solche Machttechnologien ideal für autoritäre bis faschistische Zwecke (vgl. 34/35).
Dem lässt sich entgegnen, dass Technologien wie KI sowohl emanzipatorische wie autoritäre Potenziale beinhalten, abhängig davon, wie sie entwickelt und eingesetzt werden. Entscheidend bleibt, welche politischen Kräfte Technologie gestalten.

Die heute verbreitete Generative KI ist ein Kind des Social Web. Ohne dessen Datenfülle und die Digitalisierung des verfügbaren menschlichen Wissens gäbe es sie nicht. Die systematische Verknüpfung, Verdichtung und Automatisierung dieses Wissens ist nahezu zwangsläufige Folge der technischen Entwicklung und der gesellschaftlichen Digitalisierung. Generative KI-Modelle werden im weiteren oft mit großen Mengen an Werken trainiert, für die kein explizites Einverständnis der Urheber eingeholt wurde, so dass sich von einer Aneignung kultureller Schöpfung sprechen lässt.
Zu den materiellen Grundlagen empfiehlt sich übrigens immer noch der Atlas of AI von Kate Crawford.

Übersichtlich und nützlich sind die Beschreibungen der oft schwierig zu überblickenden, lose miteinander verknüpften Tech- Ideologien  die  in unterschiedlichem Maße wirksam sind.  Allen gemeinsam ist, dass sie technologische Disruption als Triebkraft gesellschaftlichen Fortschritts verstehen (71).

Technologischer Determinismus ist ein weiterer Schlüsselbegriff: Technischer Fortschritt gilt demnach als zentraler, unausweichlicher Treiber gesellschaftlicher Entwicklung. Deutlich wird diese Haltung in dem Techno-Optimist Manifesto aus dem Jahr 2023 Marc Andreessen, Investor, in seiner Jugend Entwickler des ersten Browsers Mosaic.  (*Auszug s.u.).
Cyberlibertarismus (vgl. die ausführliche Beschreibung im Blogbeitrag), kann als ideologisches Grundmuster der Tech-Branche gelten – eine Art Leitideologie, die sich durch eine fundamental ablehnende Haltung gegenüber jeder Form staatlicher Internetregulierung auszeichnet. Dazu gehört ein Freiheitsverständnis, in dem sich dann zwangsläufig Machtkonzentrationen und hierarchische Strukturen herausbilden
David Golumbia fasste Cyberlibertarismus kurz als “antidemocracy portraying itself as both democracy and “above” politics, when it is anything but” zusammen.
Effektiver Altruismus (EA) – der ethische Arm des Tech-Kapitalismus, wie ihn etwa Anthropic (Betreiber der KI Claude) vertritt. Grundgedanke ist, nach den effizientesten Wegen ein maximales Wohl für die größtmögliche Anzahl fühlender Wesen zu erreichen.
Mühlhoff kritisiert auch hier die technokratische Herangehensweise, die sich an quantifizierbaren Größen orientiert.

Insgesamt werden knapp 20 Tech- Ideologien bzw. – soziale Phänomene, wie die Manosphere, Trolle und Maskulinisten, detailliert beschrieben. Dazu zählen etwa Longtermismus, Transhumanismus mit mehreren Unterströmungen, Neoreaktionäre/ NRX, CEO- Monarchie. Einige davon sind eng mit den Haltungen und Strategien antidemokratischer Akteure verbunden. Allein diese Übersicht ist ein Grund, 8 € für das Büchlein auszugeben.

Diese ganze Vielzahl ideologischer Stränge kann als Ausdruck davon gelten, dass es um ein hegemoniales, aber auch umstrittenes Machtzentrum geht. Das Bewusstsein, nicht nur ein technologisches und ökonomisches, sondern auch ein politisches und kulturelles Machtzentrum zu sein, begünstigt eine imperiale Logik, die weitgehend geteilt wird. Markante Bruchlinien bleiben aber erkennbar.

Mühlhoff sieht in den Ideologien rund um das Thema KI die Gefahr,  dass faschistoide Tendenzen aus dem Geist einer technologischen Innovationskultur entstehen und sich durch ihre hegemoniale Dominanz verbreiten. Dass die Innovationskultur sich selber dabei abschafft bzw. zum Erfüllungsgehilfen wird, ist eine Folge.
Vor einigen Monaten hatte ich es in einem Longread als eine unstrukturiertere Entwicklung beschrieben: Ein neues Machtsystem bildet sich heraus: Ein Mash-Up, eine Verklumpung von Rechtspopulismus bzw. – extremismus und Digitalem Kapitalismus. Ein Machtsystem, das sich gegen genau das wendet, was in den letzten Jahrzehnten als gesellschaftlicher Fortschritt galt.

Rainer Mühlhoff : Künstliche Intelligenz und der neue Faschismus. Reclam Verlag  Juli 2025. Trump und der neue Faschismus. Warum der Griff nach dem Verwaltungsapparat so gefährlich. In: Verfassungsblog – 9.02 .25  i   —- vgl auch: David GolumbiaCyberlibertarians’ Digital Deletion of the Left.  und Tech- Faschismus – Ein Mash-Up als Machtsystem (in diesem Blog) ** vgl.: LOOPS Fascist AI with Malte Engeler and Tante. Aufzeichnung vom 3.07.25 , Berlin

  • Auszug aus dem Techno-Optimist Manifesto  (Marc Andreesen, 2023): Our civilization was built on technology. Our civilization is built on technology. Technology is the glory of human ambition and achievement, the spearhead of progress, and the realization of our potential. For hundreds of years, we properly glorified this – until recently. I am here to bring the good news. We can advance to a far superior way of living, and of being.

 



SideMenu