
KI/AI bleibt ein dominierendes Thema der Zeitgeschichte. Nicht mehr als spekulative Zukunftserzählung – die Durchdringung des Alltags und auch spektakuläre Anwendungen sind längst Realität.
Das Tempo und die Intensität, mit der sich KI verbreitet, macht eine Transformation von grundsätzlicher gesellschaftlicher Bedeutung mit Auswirkungen auf nahezu alle Lebensbereiche, wie auf die gesamte technische und kulturelle Zivilisation, deutlich.
KI verändert Prozesse, in denen wir denken, schreiben, arbeiten, publizieren und programmieren – die Bedingungen, unter denen Wissen entsteht.
KI werde noch disruptiver als die industrielle Revolution meinte der US‑amerikanische Zeithistoriker Walter Russell Mead in einem Interview in der Zeit. Und dabei könne einiges schiefgehen. Mead befürchtet, dass die KI-Revolution Staatlichkeit, Bürokratie, Arbeitsmärkte und politische Stabilität erschüttert, bis hin zum Staat selbst.
Sozialisierte Maschinen – erste begriffliche Ansätze
Wie KI gesellschaftliche Praxis tatsächlich verändert – und mit welchen Begriffen sich diese Veränderung angemessen beschreiben lässt – ist damit allerdings längst nicht entschieden. Genau hier setzt die Frage nach einem geeigneten Erklärungsrahmen an.
Mit der Verbreitung von KI hat – naheliegend – auch die Forschung zu ihrer Wirkung zugenommen. Im Zentrum steht dabei meist die Organisation von Arbeit und die Verteilung von Macht. In der Arbeitsforschung wird KI etwa als Technik untersucht, die Tätigkeiten zerlegt, standardisiert, überwacht oder neu koordiniert, so in Verwaltung, Plattformarbeit oder Forschung. In den gesellschaftspolitischen Diskussionen steht die Konzentration von Infrastrukturmacht und Datenextraktion im Vordergrund – Themen, die auch in diesem Blog ausführlich behandelt wurden.
Was bislang fehlt sind überzeugende Begriffe, die die mit KI verbundenen Strukturtransformationen bündeln. Wahrscheinlich auch deshalb, weil bisher kein dezidiert soziologischer Begriff von KI vorliegt.
Was es gibt, sind erste Ansätze. So wird KI etwa als sozialisierte Maschine gefasst – ein Begriff, der unabhängig voneinander bei Fabian Anicker (Sozialisierte Maschinen. Zur gesellschaftlichen Funktion von Künstlicher Intelligenz) und bei Frank Witt (In: Künstliche Intelligenz: Transformation und Krisen in Wirtschaft und Gesellschaft) auftaucht.
Anicker beschreibt, wie KI in kommunikative Erwartungen eingepasst wird – sie übernimmt Rollen, die zuvor Menschen innehatten, wird mit Erwartungen belegt und strukturiert soziale Abläufe.
Frank Witt nennt KI in seinem Buch Die Sozialisation von Maschinen eine Basistechnologie eines neuen, zweiten Maschinenzeitalters. An anderer Stelle spricht er von einer Umbildung der Kommunikationsordnung: KI ordnet zunehmend, was sichtbar wird, welche Entscheidungen vorbereitet werden und welche Deutungen anschlussfähig bleiben.
Beide verstehen KI als Teil sozialer Ordnungen, nicht als isolierte Technologie. Als Entität, die in soziale Praktiken eingebunden wird, funktionsnotwendiges implizites Wissen inkorporiert und menschliche Tätigkeiten strukturell ersetzt.
Ko-Evolution – Eine Auto-Ethnographie
Klaus Burmeister, Zukunftsforscher bei D 2030, hat seit November 25 auf LinkedIn eine Diskussion über eine Ko-Evolution von Mensch und KI angestossen. In einer Serie von fünf Texten, er nennt sie Notizen, zeichnet er auf, was sich als Auto-Ethnographie oder protokollierte Nutzungserfahrung eines Wissensarbeiters verstehen lässt.

Der Begriff Ko-Evolution war bewusst gewählt, um einen längerfristigen, wechselseitigen Transformationsprozess zwischen Mensch und KI zu benennen, in dem sich beide Seiten verändern. Burmeister schreibt: Wer regelmäßig mit KI arbeitet, verändert sich — seine Fragen, seine Erwartungen, seine Denkroutinen. Und die Ergebnisse dieser Zusammenarbeit sind weder rein menschlich noch rein maschinell. Es entsteht etwas Drittes.
Burmeisters Interesse gilt dem Gleichgewicht zwischen Mensch und Maschine. Im Kern geht es ihm um die Frage, wie sich menschliche Souveränität – das Recht, über das eigene Leben zu bestimmen – erhalten lässt, wenn Maschinen in immer mehr Bereichen schneller, umfassender und ausdauernder operieren als wir. Die Textreihe beginnt als Logbuch eines Selbstversuchs zwischen kognitiver Bereicherung und stillem Verlust.
Sein Buchprojekt trägt den Titel Nie ohne Grund – angelehnt an einen Dialog mit einer KI, die den Satz formulierte: Gegen dich – wenn’s sein muss. Aber nie ohne Grund. Für Burmeister wurde dieser Satz zum Ausgangspunkt der Frage: Wer entscheidet, ob die Gründe der Maschine ausreichen? Seine Haltung ist ein trotziges Dennoch – die Weigerung, den gemeinsamen Streit um Zukunft aufzugeben, auch wenn der Mensch kognitiv zunehmend unter Druck gerät.
Seine Aufzeichnungen protokollieren eine erlebte Wirkung – und zugleich eine Projektion. Die Formulierung Die Maschine formulierte die Möglichkeit, gegen den Menschen zu handeln schreibt der KI eine Intentionalität zu, die sie nicht hat. Was Burmeister erlebt, ist die Konfabulation eines Sprachmodells, das auf seinen Input reagiert – nicht die Selbstbehauptung eines Akteurs. Das ist keine Kritik an der existenziellen Ernsthaftigkeit seiner Frage. Aber es ist eine begriffliche Präzisierung.
Die Maschine hat keinen Grund, keinen Willen. und sie hat keine Perspektive als Erste Person. Der allbekannte Satz von Descartes Ich denke, also bin ich, markiert wohl am besten die menschliche Selbstermächtigung zu dieser Perspektive.
Technogenese – Ko-Evolution auf lange Sicht
Was ich ausdrücklich teile, ist die Aufforderung zu einer vorausschauenden Gesellschaftsforschung: Weg von der klassischen Technikfolgenabschätzung, die Risiken im Nachhinein bewertet, hin zu einer Forschung, die als Navigator in ungewissen Zukünften dient.
Ko-Evolution beschreibt etwas Reales: die erlebte, angepasste Benutzeroberfläche der KI. Wer täglich mit Claude, ChatGPT, Mistral oder anderen Systemen arbeitet, erfährt tatsächlich eine Form wechselseitiger Anpassung, Auf dieser Ebene kann die Sprachmaschine wie ein Dialogpartner wirken, gestützt auf gespeicherte Kontexte und Formen der Personalisierung, die sich in den einzelnen Modellen unterscheiden.
Was sich verändert, ist der Nutzer, der sein Verhalten und Vorgehen danach ausrichtet, nicht das System.
Auf der Modellebene – dem eigentlichen KI-System – gilt: Hersteller berücksichtigen Kundenerfahrungen (RLHF*, Feedback-Schleifen), aber das ist klassische Produktentwicklung, keine Ko-Evolution.
KI passt sich nicht an Menschen an – sie wird von Menschen entwickelt. Von Unternehmen mit Geschäftsinteressen, wie Anthropic, OpenAI oder Google. Mit dem Einsatz von Trainingsdaten, Designentscheidungen.Grundlage natürlicher Ressourcen, Treibstoff und menschlicher Arbeit, wie es Kate Crawford im Atlas der KI (2021) eindrucksvoll beschrieben hat.
Als stimmig sehe ich den Begriff der Ko-Evolution in langfristiger Perspektive, im Sinne des Konzepts der Technogenese. Gemeint ist damit die parallele Entwicklung, die Ko-Evolution von Technik und Gesellschaft.
Den Begriff Technogenese favorisiere ich seit langem, da er an Elias’ Zivilisationstheorie anschließt und deren Konzepte der Sozio- und Psychogenese um die materielle Dimension der Technik ergänzt. Gesellschaftliche Entwicklung lässt sich ohne diese Dimension nicht angemessen verstehen. Technische Zivilisation ist kein Begleitphänomen, sondern ein ko-evolutiver, strukturprägender Faktor.
Rückblickend erscheinen dann einzelne Stufen als Momentaufnahmen eines Zivilisationsprozesses, der in der Gegenwart weiterläuft und sich fortschreibt.
Intermediarität – Synthese statt Abruf
Anfang dieses Jahres hatte ich mich mit dem Blogpost KI als Intermediär – Plausible Konfabulation in die Diskussion eingebracht. Dabei eine Sichtweise entwickelt, die KI als eine Vermittlungsinstanz begreift, die synthetisiertes Wissen hervorbringt.
Intermediarität ist – vorerst – der Begriff, der mir am präzisesten erscheint, um zu beschreiben, wie KI Wissen organisiert. Als Medienintermediäre kennen wir Plattformen und Suchmaschinen des Social Web, wie Instagram, Youtube, Google. Sie erstellen keine eigenen Inhalte, sondern aggregieren, selektieren und empfehlen fremde Inhalte über Algorithmen, Feeds oder Suchergebnisse.

KI als Intermediär unterscheidet sich von diesen darin, dass KI Wissen nicht aus Archiven abruft, sondern aus gespeicherten Daten neu (singulär) synthetisiert.
KI-Modelle sind nicht die Urheber des Wissens, das sie ausgeben, sie erzeugen jeweils kontextabhängige Synthesen auf Basis vorhandener Datenbestände. Die Maschine produziert in einem Konfabulations-raum, einen Möglichkeitsraum plausibler, aber nicht notwendig zutreffender Aussagen, der durch die Eingaben gesteuert wird. Sie synthetisiert; die Entscheidung über Relevanz bleibt beim Menschen. Das ist nicht trivial, es ist die Bedingung der Möglichkeit sinnvoller Nutzung.
Aus Massendaten werden situativ zugeschnittene Angebote mit entsprechenden Deutungs- und Anschlussmöglichkeiten. Ob daraus kognitiver Reichtum oder kognitive Verarmung entsteht, ist keine technische, sondern eine kulturelle Frage.
Diese Intermediarität ist die beobachtbare Mikro‑Ebene, auf der wir mit KI interagieren. Als Nutzer lernen wir, jeweils funktionale Vorgehensweisen zu entwickeln. Die Frage, ob KI als Werkzeug bezeichnet werden kann, bleibt dabei ambivalent. Sie ist kein Werkzeug im Sinne eines Hammers, aber auch kein Instrument, das sich einfach über Knöpfe bedienen lässt. Eher handelt es sich um ein System, für das Nutzer Vorgehensweisen, Taktiken und ein spezifisches Gespür entwickeln müssen, um verlässliche Ergebnisse zu erzielen. Die Maschine kann dabei wie ein Gegenüber wirken, liefert jedoch nur dessen Simulation.
Was die Maschine leistet, ist die Synthese bzw. die Extraktion von Wissen aus einem vorhandenen Bestand. Sie erzeugt kontextabhängige Ergebnisse, die wie ihre Gedanken erscheinen, ohne dass sie selbst deren Urheber ist.
Sie gibt singuläre Ergebnisse aus, was nicht ausschließt, dass standardisierte Abfragen in standardisierten Kontexten auch standardisierte Resultate hervorbringen.
Technogenese. ist der makro‑historische Rahmen, der diese Verschiebungen in eine längerfristige Entwicklung von Zivilisation, Medienumgebungen und Arbeitsformen einordnet.
Der Prozess der Digitalisierung, mit ihm die Diffusion von KI, erweist sich nicht als eingleisiger Pfad eines demokratischen Digitalen Fortschritts.
Es zeichnet sich ein konflikthaftes Feld ab. KI verändert nicht nur die Organisation von Wissen, sondern verschiebt auch die Bedingungen, unter denen gesellschaftliche Ordnung entsteht. Fragen von Macht, Ungleichheit und demokratischer Kontrolle stellen sich neu.
Technogenese ist kein linearer Fortschrittsprozess, sondern eine ungleichzeitige, spannungsreiche Entwicklung.
vgl.: Klaus Burmeister: Sieben Erkenntnisse aus 18 Monaten Ko-Evolution und fünf Notizen.- Eine Zwischenbilanz. LinkedIn 12.04.2026 – Interview mit Walter Russell Mead KI wird noch disruptiver als die i trielle Revolution“. Die Zeit 18.03.2026. Frank H. Witt: Künstliche Intelligenz: Transformation und Krisen in Wirtschaft und Gesellschaft-UVK Verlag , 220 S. ,April 2025. Fabian Anicker: Sozialisierte Maschinen. Zur gesellschaftlichen Funktion von Künstlicher Intelligenz. Zeitschrift für Theoretische Soziologie 1/2023; S. 79-105 – Kelly Joyce, Taylor M. Cruz & al.: A Sociology of Artificial Intelligence: Inequalities, Power, and Data Justice 3.09.2024; Im Blog: KI als Intermediär – Plausible Konfabulation (01/26) ; Die Sozialisation von Maschinen – Künstliche Intelligenz: Transformation und Krisen in Wirtschaft und Gesellschaft . (Rez.zu Frank Witt – 04/25). –
*RLHF (Reinforcement Learning from Human Feedback) bezeichnet ein Verfahren, bei dem KI-Modelle mithilfe menschlicher Bewertungen an gewünschte Antworten und Verhaltensweisen angepasst werden.






