Fünfzehn Jahre Blog – Digitaler Wandel als Zeitgeschichte

Durchblick – Bild: unsplash +

Fünfzehn Jahre sind ein Abschnitt der Zeitgeschichte. Solange betreibe ich jetzt diesen Blog – mittlerweile sind es knapp 200 Beiträge. Startpunkt war das Netnocamp bei der IHK Köln im September 2010.
Vorausgegangen war eine mit  Dreamweaver erstellte Website,  noch im Tabellen- Layout,  einige ältere  Texte (hier zu lesen) von dort habe ich übernommen .
Blogs waren einmal ein Kernstück der neuen digitalen Öffentlichkeit, man sprach von einer Netzkultur, bevor Social Media Plattformen diese Öffentlichkeiten übernahmen. 
Blogs bedeuten aber weiterhin die Unabhängigkeit, eigene Themen zu setzen, eine Personenmarke aufzubauen. Im besten Falle ein Autorenmedium, das eigenständige Publikation mit der Möglichkeit von  Vernetzung,  Diskussion und Akquise verbindet.
Den Titel Netnographie & Digitaler Wandel hatte ich damals adhoc vergeben. Die Themen haben sich im Laufe der Jahre weiterentwickelt, abhängig von der Entwicklung der digitalen Welt und den eigenen Schwerpunkten. Durch den ganzen Blog zieht sich ein differenzierter soziologischer Blick auf die mit technischen Innovationen verbundene gesellschaftliche Entwicklung der  letzten Jahrzehnte – geschrieben in  einem essayistischen Stil.

Netnographie war 2008 / 2010 ein Thema der Stunde und schien als die der neuen Digitalen Öffentlichkeit angemessene Forschungsmethode.
Popularkultur hatte sich ins Internet verlagert. Digitale Subkulturen, neue Formen von Vergemeinschaft und ihre Bedeutung für das Marktverhalten standen im Vordergrund. Das Interesse an Netnographie entwickelte sich in diesem Zusammenhang rasch. Im Handbuch der Online- Forschung (2014) konnte ich einen längeren Beitrag dazu veröffentlichen. Eine Reihe kleinerer Beispiele (so zu Vegan, Overtourismus, Fairtrade) sind im Blog dokumentiert.
Fun- Fact: eine Zeitlang wurde ich oft von Studenten zu ihrer Abschlussarbeit kontaktiert, aber nie aus der Soziologie oder verwandten Fächern, so gut wie  immer aus der BWL.
Ganz durchsetzen konnte sich Netnographie in der deutschsprachigen Forschungslandschaft nicht. Der Name weckt Erwartungen auf einfache Art Consumer Insights zu gewinnen – eine eher technische, instrumentelle Sichtweise. Die Unterscheidung zum Monitoring, heute meist Listening genannt, fällt in der Praxis oft schwer, obwohl Monitoring auf datenbasierte Sammlung abzielt und Netnographie auf kulturelle Analyse.
Netnographie entstammt der Kulturanthropologie– ethnographic fieldwork im digitalen Raum. Mit einer Verankerung in den Diskursen der Consumer Culture Theory bzw. der Cultural Studies. Im deutschsprachigen Raum fehlt dieser Kontext oft.
Netnographie fällt so etwas zwischen die Stühle: Zu weich für datengetriebene Marktforschung, zu anwendungsorientiert für reine Kulturwissenschaft, zu anthropologisch für die deutsche Soziologie.
Die Entwicklung von Netnographie verfolge ich weiter, der aktuelle Stand ist nachzulesen.

Bild: Getty Images- unsplash+ +

Digitaler Wandel  und Digitale Transformation werden oft gleichgesetzt, bezeichnen aber Unterschiedliches. Wandel ist der allgemeinere Begriff für Veränderungen, die sich im Laufe der Zeit vollziehen. Transformation hingegen meint tiefgreifende, strukturelle Umbrüche, bei denen Systeme, Institutionen und Praktiken neu gestaltet werden. Beide Begriffe markieren Leitlinien der Zeitgeschichte, in der technologischer, medialer und gesellschaftlich-kultureller Wandel eng miteinander verflochten sind.

Schübe der Digitalisierung wurden nicht erst mit dem Internet spürbar.  Bereits  Desktop- Publishing (etwa um 1990) war ein Schlüsselimpuls der digitalen Revolution im Medienbereich. Der Cyberspace, wie man damals das Internet nannte, wurde als experimenteller  Raum erlebt.
Zumindest zeitweise setzte sich das freie Internet der offenen Standards gegenüber einem Internet der Konzerne (damals das Netz der Portale) durch. Es blieb prägend für eine Kultur der Digitalität, in der sich die  Vorstellung eines gemeinsamen, dezentralen gesellschaftlichen Projektes herausbildete.  Das Web 2.0 war mit einer basisdemokratischen Aufbruchsstimmung verbunden, auf die bis heute immer wieder bezug genommen wird.

Seitdem haben eine ganze Reihe technischer Innovationen die digitale Entwicklung angetrieben, Das mobile Internet veränderte die Alltagskommunikation massiv, und ist heute kaum noch wegzudenken. Social Media kanalisierte die online- Kommunikation, machte  sie auslesbar.
Das Metaverse (2021/22) wurde v.a. von Konzernen angetrieben, fand aber letztlich in dieser Form keine ausreichende Resonanz. Der Entwurf eines räumlichen Internet setzt sich aber im Spatial Computíng fort. KI ist seit dem Start von ChatGPT Ende 2022 ein dominierendes Thema –  mit  noch nicht überschaubaren Wirkungen und Folgeerscheinungen.

Die Pandemie 2020/ 21  bedeutete einen grossen Einschnitt.  Unter welchen Bedingungen konnten sich digitale Medien mehr bewähren, als unter denen einer physischen Kontaktsperre? Ohne digitale Medien, wie Videochats, Live- Streaming etc. hätte sich kaum eine öffentliche Sphäre aufrecht erhalten lassen. Der kurzlebige Hype um Clubhouse im Corona- Winter 2021 verdeutlichte um so mehr eine Sehnsucht nach Austausch und Vernetzung, gerade in medienaffinen Branchen.

Der wahrscheinlich entscheidendste Einschnitt der letzten 15 Jahre war aber nicht Corona, auch nicht KI und sicher nicht das Metaverse, sondern die Landnahme der Plattformen, (sehr gut beschrieben von Michael Seemann in  Die Macht der Plattformen).  Sie bedeutete den Wechsel von einer offenen, dezentralen Innovationslogik (bottom-up) hin zu einer stärker kontrollierten, durchplanten und von wenigen zentralen Akteuren dominierten Struktur (top-down).
Es entstand ein – eingeschränkt – globaler Informationsraum mit zentraler Infrastruktur. Plattformen agieren darin als Intermediäre – sie vermitteln zwischen Nutzern und Anbietern und regulieren Zugang, Sichtbarkeit und Interaktion. Diesen Intermediären – den Big Tech-Giganten ebenso wie zunehmend den großen KI-Systemen – kommt faktisch eine Ordnungsmacht zu. Entscheidend ist die umfassende Erhebung, Auswertung und algorithmische Verarbeitung aller verfügbaren Daten.

Der Wandel bedeutet nicht den Übergang in einen neuen, stabilen Zustand, sondern verläuft kontinuierlich weiter – mit neuen Chancen und neuen Konfliktlinien. Wenig vorhersehbar in seinen konkreten Ausprägungen, aber in seinen gesellschaftlichen Zusammenhängen erklärbar.

Der Begriff Transformation geht zurück auf Karl Polanyis Konzept der Großen Transformation (1944) in dem  gesellschaftliche Umbrüche nicht nur als wirtschaftliche, sondern auch als politische und kulturelle Prozesse verstanden werden Diese kontinuierliche Transformation ist durch die Verzahnung technischer, kultureller und politischer Entwicklungen gekennzeichnet.  Polanyi wie auch Norbert EliasProzesssoziologie  können als fruchtbare Ansätze dienen, die sich auf aktuelle Entwicklungen übertragen lassen. Sie zeigen, wie sich in langfristigen Prozessen technologische Innovationen, ökonomische Interessen und gesellschaftliche Aushandlungsprozesse wechselseitig bedingen.

Mit der Prozesssoziologie von Norbert Elias hatte ich mich  seit dem Studium befasst, immer wieder fasziniert von dem Gedanken, sie auf laufende Entwicklungen zu beziehen. Neben die bei Elias herausgestellten Prozesse der Sozio- und Psychogenese – der Herausbildung von Gesellschafts- und Persönlichkeitsstrukturen lässt sich Technogenese hinzufügen – die wechselseitige Prägung von Technik und Kultur. Technische Infrastruktur/ Technokultur haben heute eine ganz andere Bedeutung für die gesellschaftliche Binnenstruktur als noch vor wenigen Jahrzehnten.
Diese Prozesshaftigkeit – nicht die Wirkung einzelner Technologien, sondern ihre gesellschaftliche Einbettung – ist das eigentliche Über- Thema dieses Blogs. 

Die Relevanz soziologischer Theorien für das Verständnis der digitalen  Gegenwart habe ich in einem (verlinkten) Beitrag zusammengestellt. Darunter  auch  solche, die sich auf die Luhmannsche Systemtheorie beziehen, sowie die  Arbeiten von Andreas Reckwitz. Hinzuzufügen wäre noch die Bedeutung von Michel Maffesoli für das Konzept der Online- Tribes

Im letzten Jahr dominierten zwei Themen: KI/ AI und  die politischen Verwerfungen seit November 2024. Bei letzteren verweise ich auf meine Rezension zum Cyberlibertarismus und den  ausführlichen Text Tech- Faschismus – Ein Mash-Up als Machtsystem.

KI ist  seit knapp 3 Jahren ein geradezu epochales Thema. KI wird in der Breite genutzt, wahrscheinlich von vielen mehr, als offen zugegeben wird., Gleichzeitig ist sie ein boomendes Feld der Beratungs- und Fortbildungswirtschaft, steht aber auch in der Kritik als Piraterie des Wissens, Vermüllung des Internet und als Instrument neo- autoritativer Herrschaft. Im Unterschied zum Internet, das sich, zumindest zeitweise, bottom- up verbreitete, ging KI  von vornherein von einzelnen, grossen Konzernen aus. Die Perspektive der Anwender und Betroffenen – eine Sicht von unten– findet in der Debatte wenig Raum.
Das Buch von Frank Witt vermittelte mir mit dem markanten Bild der Sozialisation von Maschinen eine neue Sichtweise auf KI.  Mit dem Autor konnten wir kürzlich eine Buchvorstellung im Kölner Startplatz veranstalten, an die sich möglicherweise eine weitere Zusammenarbeit anschließen kann.

In meiner eigenen Arbeit habe ich zwei Begriffe zugespitzt:  Automatisierte Singularisierung soll die Paradoxie fassen, wie KI-Systeme massenhaft die gewünschten Einmaligkeiten produzieren – angelehnt an die Theorie der Gesellschaft der Singularitäten von Andreas Reckwitz. Gemeint ist die gezielte Erzeugung individueller Produkte und Erlebnisse auf Basis von Verhaltensdaten und Präferenzen. In eine ähnliche Richtung geht die derzeit viel diskutierte Erzeugung synthetischer Daten in der Marktforschung.
Der Begriff Consociality/ dt. Consozialität  stammt nicht von mir, aber ich habe ihn gern aufgegriffen. Gemeint ist etwas, was es schon immer gab, aber erst in der digitalen Sozialität  zentrale Bedeutung erlangt: Die Verbindung einzelner Menschen über punktuelle Übereinstimmungen und Interessen – situative digitale Ko-Präsenz jenseits stabiler Gemeinschaften. Ein Kollege nannte es  scherzhaft #Hashtag Soziologie, als ich das Konzept damit erläuterte. 

Soziologie löst keine Probleme, legt aber Zusammenhänge offen und macht so gesellschaftliche und zeitgeschichtliche Entwicklungen erklärbar.
Genau darin liegt ihr Nutzen: Entwicklungen der Zeitgeschichte erklärbar zu machen, Aha-Erlebnisse zu erzeugen und zum Weiterdenken anzuregen – nicht durch Vereinfachungen, sondern durch begriffliche Schärfung. Gefreut hat mich, dass 2x Beiträge aus dem Blog den Weg in Schulbücher fanden – nicht für Sozialwissenschaften, sondern für Deutsch in der Oberstufe – eine Anerkennung der sprachlichen Qualität.

Die selbstverständliche Nutzung von Blogs zur Diskussion hat nachgelassen. Sie ist längst abgewandert in Social Media, v.a. zu LinkedIn. Deshalb hier mein Account: https://www.linkedin.com/in/kjanowitz/
Der Titel Netnographie & Digitaler Wandel war anfangs eine pragmatische Benennung – ob er bleibt oder sich ändert, hängt davon ab, welcher Begriff künftig am besten  trifft



KI als Strukturverstärker – Macht, Algoritmen und Autorenschaft

Bild: Steve-johnson-KI .unsplashed+

KI ist Gamechanger,  darüber sind sich fast alle einig. Darüber wie sich die Spielregeln ändern sollen, nicht.
Einstellungen und Haltungen zu KI gehen weit auseinander, die Diskussionen verlaufen meist innerhalb bestehender Gruppierungen, die den jeweiligen  Deutungslogiken folgen.

Gründe dafür, dass sich die Diskurse kaum treffen, gibt es viele. KI greift in zahlreiche gesellschaftliche Funktionssysteme ein: Medizin, Recht, Bildung, Produktion, Werbung, kreative Kreation und so viele mehr …  Ihr Einsatz, ihre Nutzung folgt einer  jeweils eigenen Logik.
Grundsätzlich tritt KI in zwei Formen auf: als sichtbare, aufrufbare Chatbots wie ChatGPT, Claude Sonnet oder Bildgeneratoren, wie Midjourney und  Googles Nano Banana/ Gemini 2.5 Flash Image und als im Hintergrund in Prozesse eingebettete Algorithmen, die Abläufe präemptiv steuern.
Konzerne sehen in KI ein Effizienz-Tool, das Abläufe beschleunigt und Arbeitskosten reduziert. Wirtschaftsförderer sehen in ihr einen Baustein der Infrastruktur, der Technologiesouveränität erfordert. Anwender erleben sie oft spielerisch.
Andere sehen KI in der Nähe eines autoritären Machtapparats oder als einen Angriff auf geistige Autonomie und das Prinzip der Autorenschaft.

Chatbots erlauben es uns, mit ihnen zu experimentieren, ihre Funktionsweise zu erkunden, sie für eigene Zwecke zu nutzen oder auch zu verwerfen. Sie sind sichtbar, direkt erfahrbar und eröffnen Spielräume zur Einübung neuer Praktiken. Sie können als bottom-up- Praxis verstanden werden. Im besten Falle als Werkzeuge der Co Creation.
Eingebettete Algorithmen
hingegen sind unsichtbar in Prozesse integriert. Sie lassen sich nicht einüben, sondern wirken strukturell – als Teil einer Macht-und Steuerungsarchitektur, die Entscheidungen präemptiv vorgibt, noch bevor wir selbst eingreifen können. Sie können als top-down Praxis verstanden werden. 

Für beide Formen gilt aber, dass sie Interessen spiegeln. Chatbots ebenso wie eingebettete Algorithmen liefern nicht neutral, sondern genau das, was in ihren Vorgaben, Trainingsdaten oder politischen Entscheidungen angelegt ist – im besten Fall also auch das, was demokratisch beschlossen wurde.
LLMs basieren auf einer oft urheberrechtlich problematischen kulturellen Extraktion: LLM systems harvest everything that can be made digital, and then use it to train corporate AI models (Kate Crawford, 2023)

KI ist zwar seit fast drei Jahren Hype und  die meisten Menschen sind mit ihr in Berührung gekommen, dennoch fehlt der Diskussion die inhaltliche Breite, die ihr zukommt.
Die öffentlichen Debatten drehen sich überwiegend um die sichtbare, dialogische Oberfläche, die wir mit einigem Lernaufwand sinnvoll und für uns nützlich gestalten können.  Die unsichtbare Allgegenwart der eingebetteten Algorithmen, die Prozesse steuern und Entscheidungen präemptiv beeinflussen, bleibt im Hintergrund.
Frage ist: Wie können Prozesse gestaltet werden, ohne von ihnen überrollt zu werden? Ohne dass sich strukturelle Macht weiter konzentriert?
KI ist in Machtstrukturen eingebunden. Ganz offensichtlich können  eingebettete Algorithmen präemptiv, vorentscheidend im – selektierenden-  Sinne der jeweiligen Betreiber verwendet werden.
Es fehlt eine gesellschaftliche Bewegung, die Machtstrukturen thematisiert, ohne gleich die ganze Technologie abzulehnen. Die Thematisierung eines neuen, smarten Faschismus – wie bei Rainer Mühlhoff ist richtig. Ein alleiniger Rückzug darauf kommt aber einer splendid isolation gleich.
KI-Technologien wurden ursprünglich dazu entwickelt,  aufwendige Analysen zu erleichtern und uns bei komplexen Aufgaben zu unterstützen. In den letzten Jahren haben sie sich zu nahezu omnipräsenten Begleitern  entwickelt. KI-basierte Systemen sind so sehr mit unserer Wirklichkeit verwoben, dass wir uns oft nur noch am Rande bewusst sind, wie stark sie unsere Entscheidungsprozesse beeinflussen.
Zudem kratzt KI  an dem menschlichen Selbstverständnis als kreativem und intellektuellen Wesen.

Von Frank Witt  stammt der Begriff  von  KI  als Strukturverstärker. KI ist bzw. wirkt als eine soziotechnische Konstellation: Weder als neutrale Technik noch als autonomes System, sondern als ein Ensemble aus Algorithmen, Daten, Institutionen und Akteuren. KI reproduziert nicht nur bestehende gesellschaftliche Tendenzen, sondern verstärkt sie in vielen Fällen. KI beschleunigt, wirkt als Verstärker von Effizienz. Das gilt für  Überwachungsprozesse ebenso wie für kreative Prozesse. KI kann gesellschaftliche und ökonomische Macht verstärken – ihre Anwendung und Wirkung gehören in den öffentlichen Diskurs.
KI zeigt die ganze Ambivalenz mächtiger Technologien: Sie kann ebenso kreative Prozesse bereichern wie demokratische Diskurse untergraben, Wissensarbeit unterstützen wie  Desinformationskampagnen automatisieren. Sie kann ganze  Trollfabriken steuern oder als cocreatives Werkzeug genutzt werden.

Vor rund 25 Jahren, um die Jahrtausendwende, setzte sich das Internet in der Breite durch. Blicken wir  zurück,  gab es damals einen ersten Anlauf zu einem Internet der Konzerne, das heute oft vergessene Internet der Portale.
Zentrale Portale sollten den Einstieg ins Internet kontrollieren, Walled Gardens statt offener Suche und Navigation- ein klassisches Gatekeeper– Modell, top-down konstruiert. Portal-Websites dienten als zentrale Startseiten, über die Dienste wie Nachrichten, E-Mail, Chats, Shopping, Online-Banking gebündelt werden sollten.  AOL, Yahoo, Compuserve, Lycos, aber auch MSN (Microsoft Network)   und t- online waren die Protagonisten.

Bild: unsplash +

Dagegen formierte sich eine breite Bewegung für ein freies Internet ohne Gatekeeper mit offenen Standards und der Vision einer vernetzten Gesellschaft.  Das Modell der  proprietären Portale der Konzerne scheiterte.
Der Erfolg wirkte einige Jahre nach  und gab basisdemokratischen Strömungen Auftrieb. Man sprach von  Netzkultur – gemeint war ein von einer Community getragener  Standard.
Die schliesslich erfolgreiche Beherrschung  der digitalen Welt durch quasi-Monopole, gelang auf anderem Wege- beschrieben u.a. von Shoshana Zuboff (Überwachungskapitalismus) und Michael Seemann (Macht der Plattformen),  oft als  Landnahme durch Big Tech bezeichnet. Aus dem partizipativen Web 2.0  war wieder ein Internet der Konzerne – jetzt BigTech genannt –  geworden – mit neuen Formen von Kontrolle und Gewinnerzielung. .
Generative KI ist ein Kind dieses Social Web. Ohne dessen Datenfülle und die Digitalisierung des verfügbaren menschlichen Wissens gäbe es sie nicht. Die systematische Verknüpfung, Verdichtung und Automatisierung dieses Wissens war technisch eine logische Weiterentwicklung der Digitalisierung.
So wird technologische Disruption von quasi-Monopolen als Triebkraft gesellschaftlichen Fortschritts inszeniert – ein Fortschritt, der zunehmend mit neuen Formen des Autoritarismus in Verbindung gebracht wird.

Der Filmkomponist Matthias Hornschuh beschreibt in seiner Schrift Wir geben uns auf. KI, Kultur und die Entwertung der Wissensarbeit (die in dieser Woche als Buch erscheint, s.u.)  eine  systematische Entwertung kultureller Arbeit. Einer auf schnell erfassbare Oberflächenreize optimierten Welt setzt er den Wert kultureller Durchdringung entgegen.
An anderer Stelle hebt er das Prinzip der Autorenschaft hervor, zitiert dabei den Kunsttheoretiker Bazon Brock: Menschen, hinter denen nichts steht, kein Papst, kein Militär, kein garnichts, und die trotzdem angehört werden, weil das, was sie sagen, interessant und von Wichtigkeit ist, aufgrund ihrer Fähigkeit, Welterkenntnis zu eröffnen.
Wenn der Zufluss neuer, innovativer und vielfältiger Inhalte zu versiegen droht, dann müssen sich Staat, Gesellschaft und Volkswirtschaft auf eine geistige Dürre einstellen. Es stellt sich die nicht geringe Frage, wie eigentlich in Zukunft das Neue in die Welt gelangen soll.
Auch KI- Kritiker wie Rainer Mühlhoff und Kate Crawford  sprechen  an einigen Stellen  von entmenschlichender Technologie  – gemeint ist Vereinnahmung von Subjektivität durch technologische Systeme.

KI kann Ähnliches im Verschiedenen erkennen, aber  nicht intentional Muster brechen oder völlig neue konzeptionelle Verbindungen schaffen, die jenseits statistischer Wahrscheinlichkeiten liegen. KI ist gut darin, aus Trainingsdaten erworbenes Wissen anzuwenden,   logisches Denken jenseits erlernter Muster fällt ihr schwer. Die spannendsten Momente entstehen nicht durch perfekte Beherrschung von Mustern , sondern durch deren überraschende Brechung. Es setzt voraus, dass jemand will, dass etwas anders läuft – eine Intention, die KI allein nicht haben kann.

Der KI-Debatte fehlt bislang eine kulturelle Aneignung, eine tiefer gehende ästhetische Durchdringung. Etwas wie Andy Warhols Pop Art, die Konsumkultur kulturell verfügbar machte. Eine KI-Kunst, die weder die Technologie dämonisiert noch vergötzt, sondern ihre Möglichkeiten und Grenzen kreativ auslotet. So kann aus einer technologischen und politisch polarisierten Debatte eine gesellschaftliche werden.

Das Web 2.0 sollte alle zu Autoren machen, das KI- Web macht alle zu Objekten einer Praxis der Extraktion. Wer wird die Prozesse der Zukunft gestalten – und wer lässt sich von ihnen gestalten? – Technologie wird erst durch kulturelle Aneignung zu gesellschaftlicher Realität.

 

vgl.  Holger Schmidt:  Revolution der Arbeitswelt: Bots statt Folien. FAZ 3.09.25.  *Matthias Hornschuh:. Wir geben uns auf: KI, Kultur und die Entwertung der Wissensarbeit – 9/25; 96 S.  Matthias Koch & Patrick Mennig: Plattformökonomie am Ende? Welchen Einfluss haben KI, Metaverse und Nachhaltigkeit auf digitale Geschäftsmodelle?  Vgl. auch Frank Witt: Stille Umbrüche – Was KI wirklich verändert. (8/25) . und Künstliche Intelligenz: Transformation und Krisen in Wirtschaft und Gesellschaft  (5/25) 



Stille Umbrüche  – Was KI wirklich verändert. Rückblick auf das Autorengespräch im Kölner Startplatz

Buchvorstellung und Diskussion

Am letzten Donnerstag (28.08) hatten wir in den Kölner Startplatz eingeladen: Stille Umbrüche  – Was KI wirklich verändert, eine Diskussion  mit dem Autor Frank Witt.

Sein Buch  Künstliche Intelligenz: Transformation und Krisen in Wirtschaft und Gesellschaft war im Frühjahr diesen Jahres erschienen. Zu diesem Buch gab es auch in diesem Blog eine Rezension, eine weitere von Gunnar Sohn.
Seit 2023 ist der Startplatz  AI Hub  offizielles Innovationszentrum für die deutsche KI-Community in Köln und Düsseldorf. Somit eine erste Adresse für Veranstaltungen dieser Art.

Vorweg: Was der Veranstaltung an Masse fehlte, machte sie durch Klasse wett: Die engagierte Beteiligung und die beeindruckende technische Kompetenz der Teilnehmer führten dazu, dass die Diskussionen knapp zwei Stunden über den vorgesehenen Zeitrahmen hinausgingen.

Bereits die konzeptionelle Ausgangslage der Diskussion war  bemerkenswert und ging über die gängigen Muster hinaus: Die Grundidee einer wirkmächtigen künstlichen Intelligenz hat nur wenig mit klassischen programmierten Computern gemein und orientiert sich vielmehr an der Funktionsweise biologischer Gehirne. Wenn sich diese durch mathematische Modelle im Parallel-Computing funktional äquivalent simulieren lässt, dann kann KI prinzipiell auch zum eigenständigen Akteur in der Gesellschaft werden – eine These, die weit über technische Innovationsdebatten hinausweist.

Der Vortrag bot einen differenzierten Blick auf die tiefgreifenden Umbrüche, die mit der Entwicklung und Integration von Künstlicher Intelligenz (KI) einhergehen. Im Zentrum stand die These, dass KI nicht nur eine technische, sondern vor allem eine gesellschaftliche Herausforderung darstellt.

Frank Witt, promovierter Philosoph und systemtheoretisch geschulter Beobachter technischer Entwicklungen, machte von Beginn an deutlich: Es geht nicht um Technikoptimismus oder Fortschrittsgläubigkeit, sondern um die kritische Reflexion eines Wandels, der bereits in vollem Gange ist. KI verändert nicht nur Produktionsweisen oder Kommunikationsformen, sondern greift tief in gesellschaftliche Machtverhältnisse und institutionelle Strukturen ein.

Strukturverstärkende Effekte von KI.

Witt beschrieb KI als soziotechnische Konstellation: Weder als neutrale Technik noch als autonomes System, sondern als ein Ensemble aus Algorithmen, Daten, Institutionen und Akteuren. Er zeigte, dass KI bestehende gesellschaftliche Tendenzen nicht einfach nur reproduziert, sondern in vielen Fällen sogar verstärkt:

  • In der Wirtschaft führt der Einsatz von KI zu neuen Rationalisierungsstrategien, zu Effizienzgewinnen, aber auch zur Prekarisierung von Arbeit.
  • Im Sozialen wird die Logik der Bewertung, Selektion und Überwachung durch algorithmische Systeme forciert.
  • In Organisationen können durch KI neue Formen von Kontrolle entstehen, die wenig Raum für Eigenverantwortung und Gestaltung lassen.

KI ist also nicht nur Werkzeug, sondern auch Strukturverstärker. Sie wirkt nicht nur auf der Ebene der Funktionen, sondern auch auf der Ebene der gesellschaftlichen Leitbilder.

Chancen, Risiken und der schmale Grat der Gestaltung

Die Diskussion bewegte sich entlang des Spannungsfeldes zwischen Innovationspotenzial und gesellschaftlicher Verantwortung. Witt betonte, dass KI große Möglichkeiten birgt: von der Automatisierung monotoner Aufgaben bis zur besseren Auswertung komplexer Daten. Gleichzeitig warnte er vor einem blinden Technikimport:

Die Digitalisierung wird oft als alternativlos dargestellt. Doch wir sollten fragen: Welche Gesellschaft wollen wir gestalten? Und welche Rolle soll Technik darin spielen?

Gerade im Bildungsbereich sei eine kritische Auseinandersetzung mit KI notwendig. Nicht nur die Techniknutzung, sondern die Reflexion über ihre Wirkmechanismen, impliziten Normen und gesellschaftlichen Auswirkungen sei entscheidend.

Kritik an Digitalisierungspolitik und den überformten Fortschrittsnarrativen

Witt übte deutliche Kritik an politischen Programmen zur Digitalisierung. Er sprach von einer “Verengung des Fortschrittsbegriffs”:

  • Digitalisierung werde vorrangig als Standortpolitik verstanden.
  • Die Frage nach Gemeinwohl, Partizipation und sozialer Gerechtigkeit werde zur Nebensache.

Dabei, so Witt, wäre gerade jetzt eine breite gesellschaftliche Debatte über die Zielsetzungen und Rahmenbedingungen digitaler Transformation notwendig.

Der Begriff der “Stillen Umbrüche”

Im Zentrum des Buches steht der Begriff der “Stillen Umbrüche”. Damit meint Witt keine plötzlichen Revolutionen, sondern die allmähliche, oft kaum bemerkte Veränderung grundlegender Verhältnisse:

  • Die Aufweichung klarer Erwerbsbiografien.
  • Neue Abhängigkeiten in der Plattformökonomie.
  • Die Verschiebung von Entscheidungsmacht zu Unternehmen und Algorithmen.

Diese Veränderungen geschehen oft leise, aber nachhaltig. Sie verändern das Verhältnis von Mensch, Arbeit und Gesellschaft langfristig.

KI und Bildung: Jenseits der Anpassung

Ein besonderer Fokus lag auf dem Bildungssystem. Witt forderte, Bildung dürfe sich nicht in der Vermittlung digitaler Kompetenzen erschöpfen. Vielmehr gehe es um:

    • kritisches Denken,
    • ethische Urteilsbildung,
    • Gestaltungskompetenz.

Die Schule der Zukunft müsse ein Ort der Aufklärung und nicht nur der Techniknutzung sein.

Verantwortung als Gestaltungsperspektive

Zum Abschluss betonte Witt, dass die Frage nicht sei, ob KI kommt oder nicht, sondern wie wir mit ihr umgehen: Technik ist gestaltbar. Aber nur, wenn wir uns dieser Gestaltungsaufgabe aktiv stellen.

Als Moderator steuerte ich einige Impulse aus Soziologie und Zeitgeschichte bei – ansonsten war wenig Moderation nötig – die Diskussion steuerte sich selbst. Die Veranstaltung zeigte eindrucksvoll, dass eine fundierte Debatte über KI nicht nur möglich, sondern notwendig ist.

Fazit:
Der Vortrag war ein Plädoyer für eine reflektierte, gesellschaftlich eingebettete Auseinandersetzung mit KI. Sie richtete sich an alle, die jenseits von Hype und Untergangsszenarien nach Wegen suchen, KI demokratisch, gerecht und verantwortungsvoll zu gestalten. In der anschliessenden Diskussion kamen zahlreiche weitere Details zur Sprache – und auch die Feststellung, dass wir in der KI noch in einer Frühstufe stehen.
Witts Analyse fügt sich in eine wachsende kritische Literatur ein, die die gesellschaftlichen Dimensionen der KI-Transformation ernst nimmt.
Rainer Mühlhoffs Künstliche Intelligenz und der neue Faschismus thematisiert  die ideologischen Verknüpfungen zwischen Tech-Eliten und autoritären Bewegungen, wie auch in diesem Blog  die Herausbildung neuer  Machtsysteme. immer wieder Thema war.
Karen Haos Empire of AI deckt imperiale Strukturen der KI-Industrie  auf. Frank Witt bietet eine  systemtheoretische Perspektive, die von der Entstehung und der Struktur von KI ausgeht, auf die  strukturverstärkenden Effekte von KI-Systemen.
Entgegen andere Schüben der Digitalisierung fehlt KI die breite Beteiligung einer Bewegung, die Umbrüche mitgestaltet. KI erschien ready-to-use aus der Hand und in der Kontrolle von BigTech Konzernen.

KI kann nicht als neutrale Technologie begriffen werden, sondern als soziotechnische Konstellation, die bestehende Machtverhältnisse reproduziert und verstärkt.
Aktuell polarisiert sich – entsprechend der politischen Großwetterlage – auch die KI-Diskussion zwischen imperialen Tech-Ambitionen und fundamentalistischer Technikkritik. Die Veranstaltung erinnerte daran, dass Technik immer auch eine Frage der gesellschaftlichen Wahl ist – und damit der demokratischen Gestaltung.

Die Stillen Umbrüche werden nur dann gestaltbar, wenn sie sichtbar gemacht und zum Gegenstand öffentlicher Deliberation werden. Darin liegt die politische Dimension einer kritischen KI-Forschung, die über technische Machbarkeit hinausfragt und die Bedingungen demokratischer Teilhabe in den Mittelpunkt stellt.

Frank H. Witt: Künstliche Intelligenz: Transformation und Krisen in Wirtschaft und Gesellschaft-UVK Verlag , 220 S. –  auf yt: Wittgenstein und Turing: KI als kumulative Innovation   Im Blog: Rezension zu:  Empire of AI – Dreams and Nightmares in Sam Altman’s Open AI –  Rezension zu:  Künstliche Intelligenz und der neue Faschismus . Rezension zu: Künstliche Intelligenz: Transformation und Krisen in Wirtschaft und Gesellschaft



Empire of AI – Dreams and Nightmares in Sam Altman’s Open AI (Rez.)

extraktiver Kolonialismus

An diesem Buch kommt  nicht vorbei, wer sich ernsthaft mit der gesellschaftlichen Dimension von KI befasst.
Karen Haos Empire of AI erschien bereits vor drei Monaten. Spät dabei zu sein, bringt auch den Vorteil mit sich, dass man erste Reaktionen und Rezensionen in die eigene Besprechung einfließen lassen kann.
Empire of AI wurde nahezu durchgängig positiv hervorgehoben – als kritische, detailreiche Analyse der globalen KI-Industrie und ihrer imperialen Strukturen – hervorragend und gründlich recherchiert, mit kritischem Insiderwissen als Hintergrund.
Wer das Silicon Valley der 2020er Jahre, den KI-Boom und seine weltweiten Auswirkungen mit nur einem Buch verstehen möchte, sollte dieses lesen.

Karen Hao schreibt nicht von außen über die KI-Industrie. Empire of AI lässt sich als journalistische Ethnographie lesen. Teilnehmende Beobachtung ist der Rahmen. Persönliche Erlebnisse fließen ein, die Basis der Analysen sind aber über 300 Interviews, ergänzt durch Korrespondenzen und andere Dokumente.

Karen Hao war über Jahre hinweg Teil des Ecosystems in dem sich KI- Unternehmen entwickelten. Sie teilte Wohnungen mit Entwickler:innen, nahm an internen Treffen teil und führte Hintergrundgespräche mit Gründerfiguren wie Sam Altman.  I was the first journalist to profile OpenAI. I embedded within the company for three days in 2019 sagte sie in einem Interview.
Ihre Sichtweise changiert zwischen Beschreibung aus der Nähe und Analyse, diese Spannung macht den Wert ihrer Darstellung aus. Der Text bleibt dabei auf immerhin 482 Seiten gut lesbar.

Etwas überrascht hat mich, dass Karen Hao an keiner Stelle den Atlas of AI von Kate Crawford (2021) erwähnt. Beide Autorinnen benennen die extraktive Logik der KI, beide analysieren globale Machtasymmetrien und die Auslagerung von Datenarbeit als crowdworking, thematisieren eine  postkoloniale Ausbeutung, beide argumentieren kritisch gegenüber dem Silicon Valley.
Crawfords Buch ist eher akademisch, in den Critical Data Studies verankert. Hao geht es um investigative  Aufklärung. Beide Bücher ergänzen sich in ihrer Wirkung und  ihrer kritischen Perspektive .

Kaum eine Technik ist unschuldig – und KI ist es auch nicht. Zentrales Thema des Buches ist der Widerspruch zwischen dem Versprechen einer künstlichen allgemeinen Intelligenz, einer Technik, die der gesamten Menschheit zugute kommen sollte und der  messy, secretive reality behind OpenAI’s bid to save the world  -wie es die Autorin  bereits im Februar 2020 schrieb.

KI, wie generell digitale Techniken, wird meist als dematerialisiert wahrgenommen. Das mag in der Endausgabe so erscheinen. Letztlich beruht KI aber auf der Abschöpfung materieller, energetischer, kultureller und kognitiver Ressourcen:
Benötigte Ressourcen sind so breit gestreut wie seltene Erden und andere Mineralien, Energie, Wasser, ausgelagerte menschliche Arbeitskraft, kulturelle Produkte, digitalisiertes menschliches Wissen, die Datenfülle der Plattformen etc. – Ohne all diese Ressourcen gäbe es KI nicht.

OpenAI wurde mit dem Anspruch auf Transparenz gegründet. Im Vordergrund stand die Idee, eine künstliche Intelligenz zu entwickeln, die value for everyone rather than shareholders schafft – einen Nutzen der weltweit gerecht verteilt werden sollte, jenseits privatwirtschaftlicher Interessen.
In der OpenAI Charter, einer Art ethischem Leitbild bzw. selbstgegebener Verfassung, heisst es: To ensure that artificial general intelligence benefits all of humanity und weiter: We are committed to broad distribution of benefits and long-term safety, and to cooperative orientation with other research and policy institutions. 
Hao setzte dem schon 2020 eine Beschreibung der realen Logik entgegen: Nicht das ethische Leitbild treibt das Handeln an, sondern die Angst, den entscheidenden Innovationsschub zu verpassen.
The need to be first or perish
beschreibt die geltende Systemlogik, unter der das Unternehmen längst operiert. Das ursprüngliche Versprechen, eine künstliche Intelligenz zum Wohle aller zu entwickeln, steht heute im Spannungsverhältnis zu einem beschleunigten Innovationswettlauf, der sich durch die geopolitische Konstellationen verschärft: Die Entwicklung leistungsfähiger KI gilt zunehmend als strategischer Standortvorteil – technologisch, wirtschaftlich und militärisch. OpenAI bewegt sich in einem globalen Wettbewerb, in dem China als systemischer Rivale wahrgenommen wird.
Die Weiterentwicklung folgt in erster Linie der Logik des Venture Capitals, nicht der einer am Gemeinwohl orientierten Forschung. Hinzu kommt die enge Partnerschaft mit Microsoft die der ehemals gemeinnützigen Organisation eine neue Abhängigkeit schafft. Microsoft stellt nicht nur die notwendige Cloud-Infrastruktur bereit, sondern hat sich durch Milliarden-Investitionen direkten Zugang zu OpenAIs Technologien gesichert.

Die Idee einer Artificial General Intelligence  (AGI) – einer künstlichen Intelligenz, die den Menschen übertrifft oder gleichkommt – dient bei OpenAI als als strategisches Legitimationsnarrativ für gegenwärtige Entscheidungen  (vgl. Who is building a brain for the world?). 
OpenAI leitet aus der erwarteten Entwicklung von AGI den Anspruch ab, als vorausschauende Instanz zu handeln: to shape AGI before it shapes us. Damit erhebt das Unternehmen den Anspruch auf eine Mehrfachrolle als technischer Wegbereiter, ethischer Regulator und politischer Akteur.
AGI wird so zur Legitimationsfigur für weitreichende Entscheidungen – die Intransparenz bei GPT-4, die Einschränkung von Open Source oder die gezielte Bündelung von Ressourcen. Je größer die angenommene AGI-Gefahr, desto plausibler erscheint es, ihre Entwicklung wenigen, vermeintlich verantwortlichen Akteuren zu überlassen.
Ein Ziel, das bisher nicht erreicht wurde, verleiht dem Unternehmen bereits heute eine außerordentliche Stellung. Hao nennt es eine  quasi- religiöse Rhetorik – ich würde es als  tragenden Mythos bezeichnen.

Sam Altman, CEO von Open AI, wird  von Hao als ambivalente Schlüsselfigur beschrieben: als visionärer Kopf für eine transformative Technologie, zugleich geschickter Machtpolitiker – brillant, ideologisch flexibel, auf dem Grat zwischen Weltrettung  und dem Aufbau eines Imperiums.
Ein kennzeichnender Satz:   Every single person that has ever clashed with him about his vision of AI development has left.

KI-Unternehmen verschieben den Fokus digitaler Macht: Plattformen wie Amazon oder Facebook lieferten standardisierte Angebote und personalisierte Werbung. KI-Systeme hingegen erzeugen singularisierte Texte, Bilder oder Entscheidungen – oft in Echtzeit, oft einmalig. Diese Form automatisierter Einmaligkeit hebt sich deutlich von der Logik der klassischen Plattformökonomie ab (vgl. Automatisierte Singularisierung – KI und die Herstellung von Einmaligkeit)

Effektiver Altruismus (EA) bedeutet eine rational optimierte Philanthropie. Laut Hao durchlief EA eine bemerkenswerte Wandlung: von einer philosophischen Nischenbewegung zu einem dominanten Mainstream-Diskurs, mittlerweile hochgradig institutionalisiert und finanziell gut ausgestattet. EA dient als ethische Grundlage für die KI-Entwicklung und legitimiert dabei die Machtkonzentration bei wenigen Akteuren.
Insbesondere Anthropic (Betreiber von Claude Sonnet)  orientiert  sich an EA und hat sich mit Constitutional AI eine daran angelehnte Verfassung gegeben, die grundlegende normative Werte sicher stellen soll.
Karen Hao kritisiert aber auch die Praxis des Effektiven Altruismus als moralisierenden Vorwand für imperiale Praktiken, Ausbeutung und Machtkonzentration. Sie mahnt an, dass EA im Kontext der KI zu einer Legitimationsstrategie verkommen kann, die globale Ungleichheiten verstärkt, anstatt sie zu überwinden. Paradoxerweise kann EA durch seine Rationalisierung des Guten selbst zu einer Form technokratischer Herrschaft werden – was bei Kritikern auch so gesehen wird.

Karen Hao liefert keine Technikgeschichte und bedient keinen Fortschrittsnarrativ. Sie schreibt auch nicht über die Anwendungsmöglichkeiten in Medizin oder Klimaforschung. Ihr Interesse gilt unter welchen Voraussetzungen technische Potenziale entstehen – der Aufklärung über ihre Entstehungsbedingungen, Machtkonzentrationen und Versprechen. Ihre Frage ist nicht, was KI könnte – sondern was sie darf, wofür sie eingesetzt wird und wer darüber entscheidet.
Trotz ihrer demokratischen Gründungsnarrative bleiben die Innovationen der KI- Unternehmen in der Logik des Profits, der Kontrolle und der geopolitischen Interessen verhaftet – nicht anders, als man es bisher aus  der Tech Branche kennt. Die wenigen Unternehmen, die die leistungsfähigsten Modelle kontrollieren, haben massgeblichen Einfluss auf Diskurse, Bildung, Wissenschaft und gesellschaftliche Meinungsbildung. Sie entwickeln sich über multinationale Konzerne hinaus zu Imperien – so knüpft der Titel Empire of AI  an  frühere koloniale Imperien an. 

In einem Guest Essay der NewYork Times, kurz nach Erscheinen des Buches, formuliert die Autorin ihre aktuelle Sicht: Tech companies have long reaped the benefits of a friendly U.S. government, but the Trump administration has made clear that it will now grant new firepower to the industry’s ambitions. 
Das Streben nach KI bietet Unternehmen die Möglichkeit, mehr Daten als je zuvor abzusaugen, mit tiefgreifenden Auswirkungen auf die Privatsphäre und die Rechte des geistigen Eigentums der Menschen.

Die Diskussion zu KI hat sich in den letzten Monaten – entsprechend den politischen Ereignissen –  polarisiert bzw. verengt. Der Fortschrittsnarrativ verbindet sich immer stärker mit den imperialen Ambitionen von Big Tech, technologische Entwicklung wird als Grundlage globaler Machtarchitektur gesehen.
Auf der anderen Seite formiert sich eine scharfe Gegenbewegung, die in ihrer Fundamentalkritik oft luddistische und kulturpessimistische Züge annimmt. Begriffe wie Digitaler/ KI  Faschismus werden verwendet, die Technologie als solche diabolisiert.
Differenzierte Einschätzungen geraten in den Hintergrund. Dabei ist es gerade diese Haltung, die angesichts wachsender Alltagsnutzung – auch durch die Kritiker:innen selbst – Gestaltung ermöglicht.
Wer kontrolliert Technologie? Wie werden Nutzen und Risiken verteilt? Welche Gestaltungsmöglichkeiten haben wir (noch)?

 

Karen Hao: Empire of AI.:- Dreams and Nightmares in Sam Altman’s Open AI., New York 2025. : Silicon Valley Is at an Inflection Point. New York Time. 30.05.2025  – Karen Hao on How AI Colonialism Is Threatening the World.  . Democracy Now, 4.06.2025 – Inside the story that enraged OpenAi.MIT Technology Review. 19.05.2025.    The messy, secretive reality behind OpenAI’s bid to save the world. MIT Technology Review. 17.02.2020. Brian Merchant and Gail Brussel: Dismantling the Empire of AI with Karen Hao. Blood in the Machine.May 2025 Matteo Wang: The AI Industry Is Radicalizing. The tech industry and its critics occupy parallel universes. The Atlantic 12.07.25



SideMenu