Technogenese als Perspektive – Interdependenz statt Kausalität

Interdependenzen. Bild: unsplash+

In  vorhergehenden Beiträgen hatte ich den Begriff Technogenese propagiert. Gemeint ist die ko-evolutionäre Verbindung von technischer und gesellschaftlicher Entwicklung.

Die digitale Gegenwart ist geprägt von technischen Innovationen, deren gesellschaftliche Tragweite wir oft kaum verstehen. Neue Techniken lösen immer wieder Hypes aus und stossen Veränderungsdynamiken an. Plattformen strukturieren Arbeit, Kommunikation und Öffentlichkeit neu. KI verändert, wie Wissen organisiert wird. Algorithmen entscheiden über Sichtbarkeit, Kredit, Zugänge. Virtual Reality verschiebt Grenzen zwischen physischen und digitalen Räumen.

Technogenese verstehe ich als langfristigen historischen Prozess, nicht als linearen Fortschrittsverlauf. Zugleich als eine Perspektive, die diesen Prozess überhaupt erst als zusammenhängendes Gefüge sichtbar macht.
Technogenese knüpft an die Zivilisationstheorie von Norbert Elias an und erweitert ihre Sicht um die Dimension technischer Entwicklung als eigenständigen, aber nicht isolierten Faktor gesellschaftlicher Wandlungsprozesse. Analog zu Elias’ Konzepten der Sozio– und Psychogenese lässt sich Technogenese als Ausdruck wechselseitiger Abhängigkeiten – Interdependenzen – zwischen Technik, Gesellschaft und individuellen Handlungsformen verstehen.

Woher der Begriff kommt – und warum er passt

Zuerst verwendet wurde der Begriff Technogenese von dem Medientheoretiker Bernard Stiegler (2012). In Anlehnung an Anthropogenese beschreibt er Technik als konstitutiv für das Menschsein selbst. Menschliches Leben entsteht demnach nicht unabhängig von technischen und kulturellen Ausdifferenzierungen – etwa durch Werkzeuge, Schrift oder mediale Ordnungen. Technik prägt Individuation, Aufmerksamkeit, Kultur und Gesellschaft, diese wiederum produzieren neue Techniken.

In der medientheoretischen Diskussion wurde der Begriff unter anderem von Katherine Hayles weitergeführt. Sie versteht Technogenese als Ko-Evolution von menschlicher Kognition und technischen Systemen – the idea that humans and technics have coevolved together¹. Wahrnehmung, Aufmerksamkeit und Formen des Denkens verändern sich im Zusammenspiel mit medialen Infrastrukturen. Technische Umwelten sind damit nicht nur Anpassungsbedingungen, sondern greifen direkt in kognitive Prozesse ein (2012).
Auch im Forschungsprogramms Netnographie wurde der Begriff seit 2015 von  Robert Kozinets aufgegriffen. Er nutzt Technogenese, um zu beschreiben, wie sich Menschen in dynamischen digitalen Umgebungen verändern – und wie umgekehrt diese Umgebungen durch Nutzung und kulturelle Praktiken geprägt werden. Technogenese fungiert hier als theoretischer Hintergrund für die Analyse dieser wechselseitigen Anpassungsprozesse.
Im deutschsprachigen Kontext tauchte der Begriff bislang eher sporadisch auf – meist als Anschlussbegriff in post- und transhumanistischen Diskussionen.

Technogenese und der Prozess der Zivilisation 

Technogenese -eine weitere Dimension des ZIvilisationsprozesses?

Sein volles gesellschaftsanalytisches Potential entfaltet Technogenese  erst im Anschluss an Norbert Elias Zivilisationstheorie. Erst in dieser Perspektive wird sie zu einem eigenständigen Analysebegriff, der über medientheoretische oder anthropologische Deutungen hinausgeht.
Elias beschrieb in im Prozess der Zivilisation langfristige Prozesse über Jahrhunderte – Affektkontrolle, Verhaltensstandards, Herrschaftsstrukturen. Dazu führte er die Begriffe Psychogenese (Wandel von Persönlichkeitsstrukturen) und Soziogenese (Wandel von Gesellschaftsstrukturen) ein. Seine Analysen sind brillant und sie wurden – mit etwas Verspätung – zu Klassikern der Soziologie. Die technische Dimension blieb jedoch weitgehend ausgeblendet.
Nicht weil Elias sie für unwichtig hielt, sondern weil sein Interesse den Affekt- und Verhaltensstrukturen galt. Er stützte sich auf Tischsitten und aufgezeichnete Verhaltensregeln, um Wandlungsprozesse zu beschreiben. Heute sind es eher Popularkulturen – Musik, Mode, Essen, Reisen, Konsumpräferenzen – an denen sich solche Prozesse beobachten lassen. Hier wird die Verschiebung der empirischen Grundlage sichtbar. Was bei Elias über kodifizierte Verhaltensnormen erschlossen wurde, zeigt sich heute in alltagskultureller Praxis.
Genau diese Lücke füllt Technogenese. Sie ergänzt Elias’ Konzepte um die materielle Dimension der Zivilisation. Als empirisch-soziologischer Begriff steht Technogenese für die Ko-Evolution von Technik und Gesellschaft – parallel zu Psycho- und Soziogenese.

Was diese Perspektive dauerhaft fruchtbar macht, ist die Verbindung von Habitus und gesellschaftlicher Struktur. Technogenese knüpft daran an: Nicht die Erklärung von Wachstum oder Fortschritt steht im Vordergrund, sondern die Analyse von Interdependenzketten im Sinne Elias’ – die wechselseitige Formung von Technik, sozialen Strukturen und individuellen Dispositionen.

Was Technogenese sichtbar macht: Interdependenz statt Kausalität

Die Perspektive der Technogenese lässt sich an unterschiedlichen theoretischen und empirischen Beispielen  verdeutlichen.
Gunnar Sohn hat kürzlich in seinem Text Technik als Geschichte überraschender Wirkungen im Anschluss an Friedrich Kittler darauf hingewiesen, dass Technologien nie nur Werkzeuge sind, sondern immer auch Kräfte, die Wahrnehmung, Wissen und Gesellschaft neu ordnen. Sie erzeugen Seiteneffekte, Rückkopplungen, Verwerfungen.
So veränderte die Schreibmaschine nicht nur das Schreiben, sondern die soziale Ordnung des Büros. Die Telefonie überträgt nicht nur Stimmen, sondern reorganisiert Arbeit, Körper und Macht. Der Computer ist nicht einfach ein weiteres Medium, sondern ein Metamedium, das Text, Bild, Ton und Video in einem universellen Operationsraum zusammenführt.  Das ist Technogenese auf der Ebene der Medien, aber der Begriff schliesst  mehr ein.: Produktionsweisen, Infrastrukturen, algorithmische Systeme etc.

Dass technologische Entwicklung als zentraler Treiber langfristiger gesellschaftlicher Veränderungen verstanden wird, ist in den letzten Jahren breit anschlussfähig geworden. Arbeiten wie The Journey of Humanity (Oded Galor) oder Power and Progress (Acemoglu/Johnson) beschreiben solche Dynamiken als langfristige Wechselwirkungen von Technologie, Ökonomie und Gesellschaft.
Technogenese schließt daran an, ohne eine Fortschrittslogik zu übernehmen. Nicht die Erklärung von Wachstum steht im Vordergrund, sondern die Analyse von Interdependenzketten im Sinne Norbert Elias’ – also die wechselseitige Formung von Technik, sozialen Strukturen und individuellen Dispositionen.

Technogenese bedeutet nicht, dass technische und gesellschaftliche Entwicklung kongruent verlaufen oder gemeinsam Fortschritt erzeugen. Sie beschreibt wechselseitige Formung – die auch in Krisen, Sackgassen oder Rück-Entwicklungen wie Re-Feudalisierung münden können.

Auch bei Niklas Luhmann finden sich anschlussfähige Überlegungen, wenn Technik als evolutionäre Errungenschaft² unter Bedingungen steigender Komplexität verstanden wird². Technik erscheint damit nicht als linearer Fortschritt, sondern als Ergebnis selektiver Bewährung. Zugleich warnt Luhmann vor totalisierenden Deutungen, die Gesellschaft insgesamt als technisch bestimmen.
Diese Perspektive ergänzt den Begriff der Technogenese um eine wichtige Einsicht: Technische Entwicklungen folgen keiner einheitlichen Logik, sondern entstehen in Prozessen differenzierter Anpassung und Abkopplung.

Technogenese als Perspektive 

Technogenese ist kein neuer Name für technischen Fortschritt. Der Begriff bezeichnet eine Perspektive, die technische Entwicklungen als Teil langfristiger, interdependenter Wandlungsprozesse – im Anschluss an Elias’ Zivilisationstheorie –  begreift. Elias sprach von Wandlungsprozessen – ein Begriff, der sich vom heute verbreiteten Transformationsbegriff durch seine stärkere Betonung langfristiger, ungeplanter Entwicklungen unterscheidet.
Der analytische Gewinn liegt darin, dass sie weder in technologische Determinismen noch in sozialkonstruktivistische Verkürzungen verfällt, sondern die wechselseitige/ interdependente Formung von Technik, Gesellschaft und menschlichem Habitus sichtbar macht.
Gerade unter den Bedingungen beschleunigter Innovationen lässt sich erkennen, dass technischer Wandel keine eindeutige Richtung hat, sondern ein offener, konflikthafter Prozess bleibt, dessen Verlauf und dessen Ergebnisse gesellschaftlich ausgehandelt werden.

Technischer Fortschritt bedeutet nicht automatisch gesellschaftlichen Fortschritt. Noch bis vor einem Jahrzehnt war diese Überzeugung verbreitet. Inzwischen ist dieses Fortschrittsverständnis  brüchig geworden.

vgl. u.a.: Norbert Elias  Über den  Prozess der Zivilisation. Soziogenetische und Psychogenetische Untersuchungen,  1938 u. 1969. Band 1 u. 2.  .¹Katherine Hayles:  How We Think: Digital Media and Contemporary Technogenesis. University of Chicago Press, 2012.- Raymond Uzwyshyn: The Ghost in the AI Machine: N. Katherine Hayles, Technogenesis and Our Posthuman Future-  LinkedIn. 3.08.2025. Kozinets, Robert V.: Netnography Redefined. SAGE Publications Ltd; Second Edition edition (July 24, 2015),  S. 49 ff – Netnography. The Essential Guide to Qualitative Social Media Research.. Third Edition 2020, S. 113 ff. —  ²Niklas Luhmann: Gesellschaft der Gesellschaften, Kap.  IX. Technik, S. 235 ff. Daron Acemoglu & Simon Johnson: Power and Progress. Our Thousand- Year Struggle over Technology and Prosperity. 546 S. London, 223
Werner RammertTechnik, Handeln und Sozialstruktur: Eine Einführung in die Soziologie der Technik. 2006


Ko-Evolution und Intermediarität – Wie KI Wissen organisiert

AI/ KI unter der Oberfläche. Bild: Unsplash+

KI/AI bleibt ein dominierendes Thema der Zeitgeschichte. Nicht mehr als spekulative Zukunftserzählung – die Durchdringung des Alltags und auch spektakuläre Anwendungen sind längst Realität.
Das Tempo und die Intensität, mit der sich KI verbreitet, macht eine Transformation von grundsätzlicher gesellschaftlicher Bedeutung mit Auswirkungen auf nahezu alle Lebensbereiche, wie auf die gesamte technische und kulturelle Zivilisation, deutlich.
KI verändert Prozesse, in denen wir denken, schreiben, arbeiten, publizieren und programmieren – die Bedingungen, unter denen Wissen entsteht.

KI werde noch disruptiver als die industrielle Revolution meinte der US‑amerikanische Zeithistoriker Walter Russell Mead in einem Interview in der Zeit. Und dabei könne einiges schiefgehen. Mead befürchtet, dass die KI-Revolution Staatlichkeit, Bürokratie, Arbeitsmärkte und politische Stabilität erschüttert, bis hin zum Staat selbst.

Sozialisierte Maschinen – erste begriffliche Ansätze

Wie KI gesellschaftliche Praxis tatsächlich verändert – und mit welchen Begriffen sich diese Veränderung angemessen beschreiben lässt – ist damit allerdings längst nicht entschieden. Genau hier setzt die Frage nach einem geeigneten Erklärungsrahmen an.
Mit der Verbreitung von KI hat – naheliegend – auch die Forschung zu ihrer Wirkung zugenommen. Im Zentrum steht dabei meist die Organisation von Arbeit und die Verteilung von Macht. In der Arbeitsforschung wird KI etwa als Technik untersucht, die Tätigkeiten zerlegt, standardisiert, überwacht oder neu koordiniert, so in Verwaltung, Plattformarbeit oder Forschung. In den gesellschaftspolitischen Diskussionen steht die Konzentration von Infrastrukturmacht und Datenextraktion im Vordergrund – Themen, die auch in diesem Blog ausführlich behandelt wurden.

Was bislang fehlt sind überzeugende Begriffe, die die mit KI verbundenen Strukturtransformationen bündeln. Wahrscheinlich auch deshalb, weil bisher kein dezidiert soziologischer Begriff von KI vorliegt.
Was es gibt, sind erste Ansätze. So wird KI etwa als sozialisierte Maschine gefasst – ein Begriff, der unabhängig voneinander bei Fabian Anicker (Sozialisierte Maschinen. Zur gesellschaftlichen Funktion von Künstlicher Intelligenz) und bei Frank Witt (In: Künstliche Intelligenz: Transformation und Krisen in Wirtschaft und Gesellschaft)  auftaucht.
Anicker beschreibt, wie KI in kommunikative Erwartungen eingepasst wird – sie übernimmt Rollen, die zuvor Menschen innehatten, wird mit Erwartungen belegt und strukturiert soziale Abläufe.
Frank Witt nennt KI in seinem Buch Die Sozialisation von Maschinen eine Basistechnologie eines neuen, zweiten Maschinenzeitalters. An anderer Stelle spricht er von einer Umbildung der Kommunikationsordnung: KI ordnet zunehmend, was sichtbar wird, welche Entscheidungen vorbereitet werden und welche Deutungen anschlussfähig bleiben.
Beide verstehen KI als Teil sozialer Ordnungen, nicht als isolierte Technologie. Als Entität, die in soziale Praktiken eingebunden wird, funktionsnotwendiges implizites Wissen inkorporiert und menschliche Tätigkeiten strukturell ersetzt.

Ko-Evolution – Eine Auto-Ethnographie

Klaus Burmeister, Zukunftsforscher bei D 2030, hat seit November 25 auf LinkedIn eine Diskussion über eine Ko-Evolution von Mensch und KI angestossen. In einer Serie von fünf Texten, er nennt sie Notizen, zeichnet er auf, was sich als Auto-Ethnographie oder protokollierte Nutzungserfahrung eines Wissensarbeiters verstehen lässt.

Der Kipppunkt auf der Wippe – Mensch vs AI/KI.  Bildquelle: Unsplash+

Der Begriff Ko-Evolution war bewusst gewählt, um einen  längerfristigen, wechselseitigen Transformationsprozess zwischen Mensch und KI zu benennen, in dem sich beide Seiten verändern. Burmeister schreibt: Wer regelmäßig mit KI arbeitet, verändert sich — seine Fragen, seine Erwartungen, seine Denkroutinen. Und die Ergebnisse dieser Zusammenarbeit sind weder rein menschlich noch rein maschinell. Es entsteht etwas Drittes.

Burmeisters Interesse gilt dem Gleichgewicht zwischen Mensch und Maschine. Im Kern geht es ihm um die Frage, wie sich menschliche Souveränität – das Recht, über das eigene Leben zu bestimmen – erhalten lässt, wenn Maschinen in immer mehr Bereichen schneller, umfassender und ausdauernder operieren als wir. Die Textreihe beginnt als Logbuch eines Selbstversuchs zwischen kognitiver Bereicherung und stillem Verlust. 

Sein Buchprojekt trägt den Titel Nie ohne Grund – angelehnt an einen Dialog mit einer KI, die den Satz formulierte: Gegen dich – wenn’s sein muss. Aber nie ohne Grund. Für Burmeister wurde dieser Satz zum Ausgangspunkt der Frage: Wer entscheidet, ob die Gründe der Maschine ausreichen? Seine Haltung ist ein trotziges Dennoch – die Weigerung, den gemeinsamen Streit um Zukunft aufzugeben, auch wenn der Mensch kognitiv zunehmend  unter Druck gerät.

Seine Aufzeichnungen protokollieren eine erlebte Wirkung – und zugleich eine Projektion. Die Formulierung Die Maschine formulierte die Möglichkeit, gegen den Menschen zu handeln schreibt der KI eine Intentionalität zu, die sie nicht hat. Was Burmeister erlebt, ist die Konfabulation eines Sprachmodells, das auf seinen Input reagiert – nicht die Selbstbehauptung eines Akteurs. Das ist keine Kritik an der existenziellen Ernsthaftigkeit seiner Frage. Aber es ist eine begriffliche Präzisierung.
Die Maschine hat keinen Grund,  keinen Willen. und sie hat keine Perspektive als Erste Person. Der allbekannte Satz von Descartes Ich denke, also bin ich, markiert wohl am besten die menschliche Selbstermächtigung zu dieser Perspektive.

Technogenese – Ko-Evolution auf lange Sicht 

Was ich ausdrücklich teile, ist die Aufforderung zu einer vorausschauenden Gesellschaftsforschung: Weg von der klassischen Technikfolgenabschätzung, die Risiken im Nachhinein bewertet, hin zu einer Forschung, die als Navigator in ungewissen Zukünften dient.

Ko-Evolution beschreibt etwas Reales: die erlebte, angepasste Benutzeroberfläche der KI. Wer täglich mit Claude, ChatGPT, Mistral oder anderen Systemen arbeitet, erfährt tatsächlich eine Form wechselseitiger Anpassung, Auf dieser Ebene kann die Sprachmaschine wie ein Dialogpartner wirken, gestützt auf gespeicherte Kontexte und Formen der Personalisierung, die sich in den einzelnen Modellen unterscheiden.
Was sich verändert, ist der Nutzer, der sein Verhalten und Vorgehen danach ausrichtet,  nicht das System.
Auf der Modellebene – dem eigentlichen KI-System – gilt: Hersteller berücksichtigen Kundenerfahrungen (RLHF*, Feedback-Schleifen), aber das ist klassische Produktentwicklung, keine Ko-Evolution.
KI passt sich nicht an Menschen an – sie wird von Menschen entwickelt. Von Unternehmen mit Geschäftsinteressen, wie  Anthropic, OpenAI oder Google. Mit dem Einsatz von Trainingsdaten, Designentscheidungen.Grundlage  natürlicher Ressourcen, Treibstoff und menschlicher Arbeit, wie es Kate Crawford  im Atlas der KI (2021) eindrucksvoll beschrieben  hat.

Als stimmig sehe ich den Begriff der Ko-Evolution in langfristiger Perspektive, im Sinne des Konzepts der Technogenese. Gemeint ist damit die parallele Entwicklung, die Ko-Evolution von Technik und Gesellschaft.
Den Begriff Technogenese favorisiere ich seit langem, da er an Elias’ Zivilisationstheorie anschließt und deren Konzepte der Sozio- und Psychogenese um die materielle Dimension der Technik ergänzt. Gesellschaftliche Entwicklung lässt sich ohne diese Dimension nicht angemessen verstehen. Technische Zivilisation ist kein Begleitphänomen, sondern ein ko-evolutiver, strukturprägender Faktor.
Rückblickend erscheinen dann einzelne Stufen als Momentaufnahmen eines Zivilisationsprozesses, der in der Gegenwart weiterläuft und sich fortschreibt.

Intermediarität – Synthese statt Abruf

Anfang dieses Jahres hatte ich mich mit dem Blogpost KI als Intermediär – Plausible Konfabulation in die Diskussion eingebracht. Dabei eine Sichtweise entwickelt, die KI als eine Vermittlungsinstanz begreift, die synthetisiertes Wissen hervorbringt.
Intermediarität ist – vorerst – der Begriff, der mir am präzisesten erscheint, um zu beschreiben, wie KI Wissen organisiert. Als Medienintermediäre kennen wir Plattformen und Suchmaschinen des Social Web, wie Instagram, Youtube, Google. Sie erstellen keine eigenen Inhalte, sondern aggregieren, selektieren und empfehlen fremde Inhalte über Algorithmen, Feeds oder Suchergebnisse.

KI ruft Wissen nicht ab, sondern synthetisiert aus gesammelten Daten. Bild: Logan Voss – Unsplash+

KI als Intermediär unterscheidet sich von diesen darin, dass KI Wissen nicht aus Archiven abruft, sondern  aus gespeicherten Daten neu (singulär) synthetisiert.
KI-Modelle sind nicht die Urheber des Wissens, das sie ausgeben, sie erzeugen jeweils kontextabhängige Synthesen auf Basis vorhandener Datenbestände. Die Maschine produziert in einem Konfabulations-raum, einen Möglichkeitsraum plausibler, aber nicht notwendig zutreffender Aussagen, der durch die Eingaben gesteuert wird. Sie synthetisiert; die Entscheidung über Relevanz bleibt beim Menschen. Das ist nicht trivial,  es ist die Bedingung der Möglichkeit sinnvoller Nutzung.
Aus Massendaten werden situativ zugeschnittene Angebote mit entsprechenden Deutungs- und Anschlussmöglichkeiten. Ob daraus kognitiver Reichtum oder kognitive Verarmung  entsteht, ist keine technische, sondern eine kulturelle Frage.

Diese Intermediarität ist die beobachtbare Mikro‑Ebene, auf der wir mit KI interagieren. Als Nutzer lernen wir, jeweils funktionale Vorgehensweisen zu entwickeln. Die Frage, ob KI als Werkzeug bezeichnet werden kann, bleibt dabei ambivalent. Sie ist kein Werkzeug im Sinne eines Hammers, aber auch kein Instrument, das sich einfach über Knöpfe bedienen lässt. Eher handelt es sich um ein System, für das Nutzer Vorgehensweisen, Taktiken und ein spezifisches Gespür entwickeln müssen, um verlässliche Ergebnisse zu erzielen. Die Maschine kann dabei wie ein Gegenüber wirken, liefert jedoch nur dessen Simulation.

Was die Maschine leistet, ist die Synthese bzw. die Extraktion von Wissen aus einem vorhandenen Bestand. Sie erzeugt kontextabhängige Ergebnisse, die wie ihre Gedanken erscheinen, ohne dass sie selbst deren Urheber ist.
Sie gibt singuläre Ergebnisse aus, was nicht ausschließt, dass standardisierte Abfragen in standardisierten Kontexten auch standardisierte Resultate hervorbringen.
Technogenese.
ist der makro‑historische Rahmen, der diese Verschiebungen in eine längerfristige Entwicklung von Zivilisation, Medienumgebungen und Arbeitsformen einordnet.

Der Prozess der Digitalisierung,  mit ihm die Diffusion von KI,  erweist sich nicht als eingleisiger Pfad eines demokratischen Digitalen Fortschritts.
Es zeichnet sich ein konflikthaftes Feld ab. KI verändert nicht nur die Organisation von Wissen, sondern verschiebt auch die Bedingungen, unter denen gesellschaftliche Ordnung entsteht. Fragen von Macht, Ungleichheit und demokratischer Kontrolle stellen sich neu.
Technogenese ist kein linearer Fortschrittsprozess, sondern eine ungleichzeitige, spannungsreiche Entwicklung.

 

vgl.: Klaus Burmeister: Sieben Erkenntnisse aus 18 Monaten Ko-Evolution und fünf Notizen.- Eine Zwischenbilanz.  LinkedIn 12.04.2026 – Interview mit Walter Russell Mead KI wird noch disruptiver als die i trielle Revolution“. Die Zeit 18.03.2026. Frank H. Witt: Künstliche Intelligenz: Transformation und Krisen in Wirtschaft und Gesellschaft-UVK Verlag , 220 S. ,April  2025. Fabian Anicker: Sozialisierte Maschinen. Zur gesellschaftlichen Funktion von Künstlicher Intelligenz. Zeitschrift für Theoretische Soziologie 1/2023; S. 79-105  – Kelly Joyce, Taylor M. Cruz & al.: A Sociology of Artificial Intelligence: Inequalities, Power, and Data Justice  3.09.2024;  Im Blog: KI als Intermediär – Plausible Konfabulation  (01/26) ; Die Sozialisation von Maschinen – Künstliche Intelligenz: Transformation und Krisen in Wirtschaft und Gesellschaft . (Rez.zu Frank Witt – 04/25). – 

*RLHF (Reinforcement Learning from Human Feedback) bezeichnet ein Verfahren, bei dem KI-Modelle mithilfe menschlicher Bewertungen an gewünschte Antworten und Verhaltensweisen angepasst werden.



Palantir und das neue amerikanische Projekt: Technologie, Macht und Aggression

Alexander Karp. CEO von Palantir – Screenshot aus der Dokumentation “Watching You”

Im vorherigen Text ging es um die Aneignung des Digitalen Fortschrittsversprechens und seine Ausweitung bis hin zur militärischen Innovation im Kontext von American Dynamism.
Silicon Valley richtet sich strategisch neu aus, hin zu Hard Tech, jenseits der Ausrichtung auf Consumer Culture. Palantir steht geradezu prototypisch dafür.

Palantir und sein CEO Alexander Karp zählen aktuell zu den umstrittendsten Akteuren des Silicon Valley.
Verstörend ist v.a. die Diskrepanz zwischen der Selbstinszenierung Karps,  einigen seiner Äusserungen und dem strategischen und ökonomischen Gewicht von Palantir.
Karp inszeniert sich als reflektierter Intellektueller mit philosophischer Ausbildung und verweist gern auf seine Frankfurter Studienjahre. Ihm werden Intelligenz und chaotische Unstrukturiertheit zugeschrieben. Gleichzeitig führt er ein Unternehmen, das autonome Waffensysteme, Massenüberwachung und politische Targeting-Technologie entwickelt.

Palantir lässt sich als datenalytisches Rüstungsunternehmen verstehen. Technisch basiert es auf einer neue Stufe der digitalen Vermessung: die Integration heterogener Datenbestände zur Erkennung strategischer Muster, vermarktet als eine neutrale Infrastruktur. Durch Palantir wird staatliche Gewaltausübung von privaten Unternehmen infrastrukturell ausgeführt.
Palantir steht aktuell als hochprofitables Softwareunternehmen da,  dessen größter Wachstumstreiber staatliche Aufträge sind. Im zweiten Quartal 2025 erzielte es einen Umsatz von über einer Milliarde Dollar – 49% Wachstum im Regierungsbereich, 47% im kommerziellen Bereich.
Kunden sind etwa die israelischen Streitkräfte – Palantir wird bei Angriffen auf Ziele im Gazastreifen eingesetzt –, das US-Verteidigungs- (jetzt Kriegs-) Ministerium nutzt es zur Drohnenanalyse, DOGE nutzte es für den Aufbau einer zentralen Einwanderungsdatenbank sowie ICE zur Echtzeitverfolgung von Migrantenbewegungen.

Mit der (unter diesem Link zugänglichen) Dissertation Karps liegt ein zeitgeschichtlich ungewöhnliches Dokument vor.  Eine deutschsprachige  Arbeit, eingereicht an der Fakultät für Sozialwissenschaften der Universität Frankfurt im Jahre 2002.
Karps Dissertation Aggression in der Lebenswelt  (vollständig: Die Erweiterung des Parsonsschen Konzepts der Aggression durch die Beschreibung des Zusammenhangs von Jargon, Aggression und Kultur)  verbindet Parsons’ strukturfunktionale Theorie mit Habermas’ Lebenswelt‑Konzept und psychoanalytischen Motiven.  Anknüpfend an Parsons beschreibt Karp Kultur, Persönlichkeit und soziales System als Ebenen, auf denen Triebe durch Sozialisation in nachvollziehbare Motivationen übersetzt werden.
Eine, auch in seinem späteren Handeln erkennbare Schlussfolgerung ist für ihn, dass Aggression unter Bedingungen von Unsicherheit und Konflikt gesellschaftlich organisiert, geregelt und produktiv genutzt werden muss.
Heute, (als CEO von Palantir) versteht Karp Datenanalyse und KI  ausdrücklich als Werkzeuge zur Stabilisierung westlicher Institutionen unter Bedrohungs- und Krisenlagen. Den politischen Umgang mit Gewalt, Sicherheit und Kontrolle begreift er als zentrale Aufgabe seiner Technologie.

Mit ca. 130 Seiten ist die Dissertation vergleichsweise kurz, 110 Seiten fallen  auf die  Literaturaufbereitung, 15 Seiten auf die Fallstudie, anhand derer er den eigentlichen Gegenstand der Analyse konkretisiert. In diesem Falle die  sog. Paulskirchenrede von Martin Walser 1998.  Walser sprach von der Moralkeule  Auschwitz und löste damit eine der schärfsten Debatten der deutschen Nachkriegsöffentlichkeit aus. 

Immer wieder wird in den Raum gestellt, Karp wäre ein Schüler von Jürgen Habermas. Promoviert hat er jedoch bei Karola Brede am Sigmund-Freud-Institut der Universität Frankfurt.
Wenige Tage nach dem Tod von Habermas (15.03.2026) erschien am 18.03.  in dem Online-Magazin Le Grand Continent ein Interview mit  Karola Brede  unter dem Titel War der Palantir-Gründer Alexander Karp wirklich ein Schüler von Jürgen Habermas? Zur Eingangsfrage: Karp besuchte Seminare von Habermas und nutzte dessen Werk als zentralen Referenzrahmen. Für sein Dissertationsprojekt verwies Habermas ihn jedoch an Brede; darin lässt sich zumindest eine gewisse Distanz gegenüber Karps Vorhaben erkennen.
Im weiteren geht es im Interview um Karps Habermas‑Rezeption, speziell um den Begriff des Jargons, den Karp in seine Aggressionstheorie integriert und den Bruch mit der akademischen Karriere hin zu seiner anschliessenden Tätigkeit als CEO von Palantir.
Brede äussert sich insgesamt sehr verständnisvoll, fast fürsorglich über Karp.  Selbst problematische Positionen erscheinen ihr eher als Ausdruck biografischer Spannungen denn als moralisches Versagen. Karps Hang zur Grenzüberschreitung deutet sie als Eigenart eines Intellektuellen, der Regeln prinzipiell quer liest.
Über seine unternehmerische Tätigkeit habe er dann Gedanken entwickelt, mit technologischer Macht eine bessere Gesellschaft entwerfen zu können. Die im Buch Technological Republic erkennbare Sehnsucht nach einer guten Gesellschaft sei jedoch in den ideologischen Zügen einer Überzeugung von heilsamer Technologie aufgehoben – in diesem Rahmen interpretiert sie sein Wirken als CEO von Palantir.
Die Bedrohung Israels während des Kriegsgeschehens nach dem Massaker der Hamas vom 7. Oktober 2023 ordnet Brede als Hintergrund einer bellizistischen Radikalisierung ein. Die aggressive Kriegsführung Israels sei – auch von Karp – mit einer tief eingegrabenen kollektiven Vernichtungsangst begründet worden.

Habermas steht für gesellschaftliche Aushandlung, für kommunikative Rationalität und Verständigung als Bedingungen legitimer Ordnung. Karp setzt dem eine andere Perspektive entgegen: Aggression erscheint bei ihm nicht als Störung, sondern als konstitutive Kraft sozialer Identität.

Kritischer fällt die Analyse von Karps wissenschaftlicher Arbeit und ihrer Nachwirkung bei Palantir  in dem Essay Palantir Goes to the Frankfurt School von  Moira Weigel aus. Der Text stammt von Juli 2020, die aktuellen Verwicklungen, v.a. seit der 2. Trumpwahl, sind also nicht berücksichtigt. Den Bezug zu Habermas nennt Weigel eine Tech industry legend –  die gern als eine Art genealogischer Eindruck genutzt wird. Karps Interesse am Thema Aggression, stammte nicht von Habermas, sondern von Wissenschaftlern des Freud-Instituts, wo sie jahrzehntelang ein Schwerpunkt der Forschung und der öffentlichen Debatte war.
Moira Weigel liest Karps Dissertation als Schlüssel zum Verständnis eines rechts-konträren Netzwerks aus Tech-Eliten (u. a. Thiel, Palantir), das den liberalen Mainstream im Silicon Valley angreift, zugleich aber selektiv auf Kritische Theorie zurückgreift. Das Emanzipationsversprechen der Frankfurter Schule wird dabei aufgegeben.
Die Mechanismen, die Weigel 2020  beschreibt, haben sich seitdem  in  eine andere Dimension gehoben. In den Geschäftsinteressen von Palantir sah Weigel bereits damals eine Nähe zum Trumpismus, obschon Karp bis zur Wahl 2024 die Demokraten mit Kamala Harris unterstützte. Übrigens war David Golumbia, der Autor von  Cyberlibertarianism – The Right Wing Politics of Digital Technology,  einer der Gutachter ihres Textes.

Nach außen hin erscheint Karp als die prägende Figur: er spricht, rechtfertigt, erklärt, ist das Gesicht von Palantir. Die grundlegende strukturelle Setzung – warum es dieses Unternehmen überhaupt gibt – stammt von Peter Thiel. Thiel holte Karp in die Gründung von Palantir, weil er ihn als fähig einschätzte, komplexe Datenanalyse in operative, politisch sensible Anwendungen zu übersetzen. Zwischen Karps Dissertation von 2002 und seinem Eintritt als CEO bei Palantir 2004 liegen keine zwei Jahre; dazwischen gab es nur eine kurze Tätigkeit im Investmentmanagement in London.
Thiel erscheint als der strukturelle Pate von BigTech: Nicht immer sichtbar, aber omnipräsent, vernetzend, ideologisch prägend – jemand, der Kapital, Gründer und staatliche Macht dauerhaft zusammenführt.

Das öffentliche Interesse an Palantir und Karp hat sich seit 2020 verstärkt. Palantir ist vom kontroversen Outsider zum zentralen KI-Infrastrukturanbieter des Pentagon, zum technischen Ermöglicher militärischer Operationen  geworden. Die Marktkapitalisierung liegt aktuell (3/26) bei rund 320 Mrd. €. Karps Rhetorik wechselte von akademischer Reflexion zu expliziter Machtpolitik.
Sein eigenes Buch The Technological Republic, die Biographie von Michael Steinberger und der Dokumentarfilm Watching You von Klaus Stern stellen Karps Rolle als CEO des grössten Defense Tech Konzerns in ein breites öffentliches Licht.
Im eigenen Buch präsentiert sich Karp als Vordenker einer Neuorientierung des Silicon Valley, weg vom Consumermarkt des Online-Targeting und der  Videoplattformen, hin zu einer Neuverbindung nationaler Ambitionen mit dem Potential von Technologie. Das amerikanische Projekt brauche ein gemeinsames Zielbewusstsein – people want and need a sense of belonging and feeling a part of some thing meaningful that is larger than themselves –  und das bedeute eine enge Zusammenarbeit mit Regierung und Militär.
Palantir hat seine Marke und seinen Ruf über all die Jahre aufgebaut, die Fähigkeit entwickelt, viel Kritik abzuwehren mit der zentralen Aussage, westliche Werte zu unterstützen. Palantir stellt die datenanalytische Infrastruktur bereit, auf deren Basis militärische und sicherheitspolitische Entscheidungen getroffen werden.

Karp formuliert diese Verschiebungen mit einer ihm eigentümlichen Direktheit: Technologie ist für ihn kein neutraler Fortschritt mehr, sondern Teil geopolitischer Machtbildung – und Unternehmen wie Palantir sind deren operative Infrastruktur.
Der Machtanspruch wird  in einigen Zitaten deutlich, die keiner weiteren Kommentierung bedürfen:
We are not a commodity. We do not want our customers to be commodities — we want them to be individual titans that are dominating their industry or the battlefield.
Palantir is here to disrupt and make the institutions we partner with the very best in the world, and when it’s necessary to scare our enemies and, on occasion, kill them.
The most important software companies are the ones whose products, as Karp has put it, “power the West to its obvious, innate superiority” and “bring violence and death to our enemies.
Die beiden ersten Zitate stammen aus verifizierten Investorengesprächen und Earning Calls, nicht aus Interviews,  veröffentlicht in Transkript aus  einem Investorengespräch von Bobby Allyn (s.u.) zitiert. Das dritte stammt aus seinem Buch, und wurde mehrfach in anderen Zusammenhängen verwendet.

Die gleiche Grundlage – dieselben Algorithmen, die Krankheitsmuster und Konsumverhalten erkennen – identifiziert auch Verdächtige. Die Ambivalenz ist kein Konstruktionsfehler – sie ist das Geschäftsmodell.
Eine gesellschaftliche Aushandlung darüber, welche Verwendung legitim ist, findet nicht statt: Die Systeme sind installiert, bevor die Frage danach gestellt wird. Das bedeutet eine präemptive (vorweggenommene) Unterlaufung gesellschaftlicher Aushandlung – nicht als Nebeneffekt, sondern als Strategie. Präemptive Unterlaufung bedeutet schließlich, dass Palantirs Systeme faktisch implementiert werden, bevor öffentlich verhandelt ist, welche Anwendungen demokratisch legitim sind.
Palantir operationalisiert, was ich andernorts als automatisierte Singularisierung beschrieben hatte – die algorithmische Erzeugung von Einzigartigkeit aus Massendaten. Im Konsumkontext erzeugt das personalisierte Werbung, im militärischen Kontext Zieldaten. Derselbe Mechanismus mit unterschiedlichen Konsequenzen.

In fact, the phases of the AI kill chain used to execute targets in warfare, as described in the Targeting Manual of the US Air Force  —  to find, fix, track, target, engage, and assess  —  are generally analogous to the steps many tech companies use to help deploy data surveillance and AI models on (or for) their customers.. (aus: : Zig, „The Guernica of AI“,zuletzt aufgerufen am 26.03.2026).

Palantir ist kein Sonderfall, sondern Vorreiter einer Entwicklung, in der sich technologischer Fortschritt, staatliche Macht und politische Mobilisierung zu einem gemeinsame amerikanischen Projekt nationaler Grösse verdichten. American Dynamism wirkt dabei als Sammlungsbewegung des Venture Capitals. Technologie wird zur Ressource staatlicher Macht. Der Staat ist nicht mehr übergriffiger Gegner, wie im Cyberlibertarismus, sondern Kunde, Partner oder Medium nationaler Größe. Die Verbindung zur populistischen MAGA scheint so konsistenter als zunächst gedacht.
Mit einem Zitat aus Moira Weigels Analyse der Frankfurter Dissertation Karps lässt sich so schliessen:
Algorithms take the histories of oppression embedded in training data and project them into the future, via predictions that powerful institutions then act on.

 

vgl.  Alexander Karp:  Aggression in der Lebenswelt: Die Erweiterung des Parsonsschen Konzepts der Aggression durch die Beschreibung des Zusammenhangs von Jargon, Aggression und Kultur . Inauguraldissertation zur Erlangung des Grades eines Doktors der Philosophie im Fachbereich Gesellschaftswissenschaften der Johann Wolfgang-Goethe Universität zu Frankfurt am Main . – The Technological Republic.: Deutsche Ausgabe.  Über die Macht des Silicon Valley und die Zukunft des Westens. Juli 2025 

Moira Weigel. Palantir Goes to the Frankfurt School– b2o: boundary 2 online. 10.07.2020.  Michael Steinberger: Der Unsichtbare: Tech-Milliardär Alex Karp, Palantir und der globale Überwachungsstaat . 11/2025. Dt. Ausgabe. — Paul Morrison: Book Review: The Philosopher in the Valley    – Sebastian Moll: Philosoph des Cyberkriegs. Wie Palantir-Chef Alex Karp, der Neo-Marxist des Silicon Valley, mit KI, Militär und Big Data die Welt neu gestaltet  Jüdische Allgemeine. 3.04.2025 —Bobby Allyn: How Palantir, the secretive tech company, is rising in the Trump era. 3.05.2025. Stefanie Buzmaniuk: War der Palantir-Gründer Alexander Karp wirklich ein Schüler von Jürgen Habermas? Ein Gespräch mit seiner Dissertationsgutachterin Karola Brede – Le grand Continent  18.03.2026 – Juan Sebastián Pinto: Das Guernica der KI. A warning from a former Palantir employee in a new American crisis . 18.02.2025. –  (Mike in Medium) Palantir’s Techno-Nationalist World View and the Philosophy of Power.  5.11.2025 – Jack McCordick. Alex Karp’s War for the West. The New Republic. 28.02.2025   Tom Nickel: Review: The Technological Republic. Medium 21.05.2025

Watching you – Die Welt von Palantir und Alex Karp. Dokumentarfilm ARD-Mediathek (bis 1.04.2026) von  Klaus Stern

 



Digitaler Fortschritt und seine Aneignung

Das Freiheitsfenster des Digitalen Fortschritts.  Bild: unplash.com unlimited

Debatten zur Tech-Oligarchie und zur Ausbreitung des Cyberlibertarismus wurden im vergangenen Jahr ausgiebig geführt, ihre ideologischen Genealogien  analysiert. Weniger beschrieben wurde, wie ein digitaler Fortschritt, der über mehrere Jahrzehnte auch als gesellschaftlicher und kultureller Fortschritt erlebt wurde, zu einem Instrument nationaler Machtprojektion werden konnte.

Das Versprechen des digitalen Fortschritts

Digitaler Fortschritt war über mehrere Jahrzehnte ein Metanarrativ – ein Fortschritt, der sich in immer neuen Schüben vollzog, die immer tiefer in den Alltag eindrangen. Die Bilder dieses Fortschritts waren und sind  tief in der populären Kultur verankert: in Science-Fiction, in Computerspielen, in den Visionen einer vernetzten Zukunft, in denen Technologie fast selbstverständlich als Erweiterung menschlicher Möglichkeiten erschien.
Der technische Fortschritt wurde oft gleichzeitig  als gesellschaftlicher und  kultureller Fortschritt erlebt. Mehrere Mediengenerationen wurden mit der Gewissheit sozialisiert, dass sich mit jeder neuen technischen Innovation Jahr für Jahr Möglichkeiten  erweiterte, zu neuen Lebensstilen und Arbeitsstrukturen.
Digitale Technik entschärfte Hierarchien, sie brachte  den frühen Anwendern einen Vorsprung vor den bestehenden Kontrollregimes.
Sie versprachen unmittelbare Partizipation, individuelle Teilhabe sowie gänzlich neue Organisationsformen jenseits von Machtakkumulation* – dieser Satz von Anna-Verena Nosthoff bringt eine verbreitete Überzeugung auf den Punkt.
Gefestigt hatte sich diese Überzeugung in den ersten Jahren des Jahrtausends, als sich das offene Netz  gegenüber dem ersten Anlauf eines Internet der Konzerne, dem heute oft vergessenen Internet der Portale, durchsetzte. Medien- und Telekommunikationskonzerne versuchten damals den Internetzugang durch geschlossene Eingangspforten zu kontrollieren. Das offene Web erwies sich aber als  produktiver, dynamischer und attraktiver als jedes Portal.
Google spielte eine besondere Rolle,  die Suchmaschine machte das offene Web erst navigierbar, legte aber die Grundlage für die erste grosse Datenakkumulation: die Vermessung des Interest Graph, die digitale Kartierung dessen, was Menschen interessiert, wonach sie suchen, worauf sie verweisen.
Noch unter der 2. Obama-Präsidentschaft (2012-2016) herrschte die Überzeugung vor, dass die globale Verbreitung eines schnellen Internet zu einer globalen Demokratisierung und zum Zusammenbruch autokratischer Regime führen würde.

Es ist diese lange Geschichte der Verbindung von technischer Faszination und gesellschaftlichen Utopien, die den Blick auf den entscheidenden Kipppunkt verstellte: den Moment, in dem die Logik des Digitalen stärker wurde als die bestehende Ordnung. Die Beherrschung der digitalen Infrastruktur wurde zum neuen Machtzentrum. Entscheidender als die Technik selbst sind die Daten aus der digitalen Vermessung der Welt.

Was als große Ermöglichung begann, erzeugte neue Kontrollstrukturen – diesmal unsichtbarer, tiefer, globaler als die alten Gatekeeper. Digitale  Landnahme, Plattformkonzentration, Überwachungskapitalismus – die Konzentration von Datenmacht in wenigen Händen.
Das Internet war nicht als Governance- System geplant, ist aber faktisch   zu einem solchen geworden. Die Kontrolle bedeutet nicht nur technologische Überlegenheit, sondern Kontrolle über die Bedingungen, unter denen andere handeln. Die digitale Ordnung durchdringt bestehende Souveränitäten, ohne sie formal zu ersetzen.

Transformation und ihre Infrastruktur

Ein universelles Muster der Transformation

Die heutige Verwendung des Konzepts Transformation, im Sinne  einer Neuorganisation gesellschaftlicher Grundlagen, geht auf den Wirtschaftshistoriker Karl Polanyi (1886-1964) zurück. Polanyi hatte vor 80 Jahren in The Great Transformation die Durchsetzung des Marktkapitalismus als eine neue Ordnung, die gesellschaftliche Grundlagen reorganisiert, beschrieben.
Polanyi beschrieb einen historischen Mechanismus. Eine neue Ordnung entsteht nicht spontan, sie wird hergestellt – und sie reorganisiert gesellschaftliche Grundlagen, bevor kollektive Gegenkräfte sich formieren können. Entscheidend ist dabei Polanyis Begriff der Doppelbewegung: Die Expansion einer neuen Ordnung erzeugt strukturell Gegenkräfte, weil sie bestehende soziale Lebensgrundlagen bedroht. Das ist kein Optimismus, das ist ein historisches Muster. Die Frage ist nicht, ob Gegenkräfte entstehen – sie entstehen. Die Frage ist, ob sie schnell genug entstehen, welche Ziele sie verfolgen und mit welchen Begriffen sie operieren.

10th anniversary edition – Februar 2026

Einen Polanyi zur Transformation des digitalen Zeitalters gibt es noch nicht. Aber es sind  Muster erkennbar.
Der Technik- und Gesellschaftstheoretiker Benjamin  Bratton hatte bereits 2016 in The Stack: On Software and Sovereignty die globale digitale Infrastruktur als eine planetare Megastruktur, von ihm The Stack genannt,  beschrieben.
Aktuell, im Februar 2026, erschien eine 10th Anniversary Edition mit aktualisiertem Vorwort: KI als neue Stack-Schicht, die Multipolarisierung von Geopolitik und Computation als dasselbe Phänomen. Brattons Prognose ist nüchtern: Was wir bis heute das Internet nennen, werde sich zu kognitiven Infrastrukturen weiterentwickeln. Der KI Stack, so Bratton, wird in einer anderen Welt existieren als unserer.
Stack entstammt der Informatik, und bezeichnet dort eine Schichtenarchitektur von Software und Hardware. Bratton hatte ihn ausgeweitet, so aus einem technischen Begriff einen der politischen Beschreibung gemacht.
Der Stack ist die technische Architektur, durch die eine neue Ordnung  bestehende Souveränitäten durchdringt und neu organisiert. Sinngemäß lautet die zentrale These: Souveränität entsteht nicht nur durch politische Institutionen, sondern durch infrastrukturelle Systeme, die Handlungen ermöglichen oder begrenzen.
Die Infrastruktur dieser neuen Ordnung ist eine zufällige,  aus vielen Einzelentscheidungen entstandene Megastruktur, Bratton nennt sie  Accidental Megastructure. Diese Ordnung ist längst da, bevor die Politik sie bemerkt.
Sie durchdringt bestehende staatliche Souveränitäten, ohne sie formal zu ersetzen, und organisiert zunehmend die Bedingungen politischer und ökonomischer Handlungsmöglichkeiten.

Bratton macht sichtbar, was Polanyi für den Markt beschrieben hat – die neue Ordnung ist konstruiert, aber ihre Konstruiertheit ist weniger sichtbar als die Durchsetzung der Marktlogik, wie sie Polanyi beschreibt. Das offene Internet war ursprünglich als kollektive Infrastruktur konzipiert – als digitales Gemeingut, das niemandem und allen gehört. Der Stack hätte diese Form annehmen können. Stattdessen wurde er zu einer invasiven maschinellen Spezies.
Die unterschiedlichsten Objekte – Orte, Körper, Waren, Bewegungen – werden  in berechenbare Einheiten übersetzt. Es ist eine Form der digitalen Vermessung der Welt als Infrastrukturprozess. Souveränität, so Bratton, wird durch infrastrukturelle Linien geschaffen.

2016, als The Stack erschien, war KI noch kein gesellschaftliches Massenereignis. Die digitale Vermessung der Welt betraf bis dahin vor allem das Soziale: Verhalten, Bewegungen, Präferenzen, Beziehungen. Social Media war die große Vermessungsmaschine der ersten Phase.
2022/23 beginnt mit der Ausbreitung von KI eine qualitativ neue Phase: Die Vermessung greift nicht mehr nur auf soziale Oberflächen zu, sondern auf das akkumulierte Wissen der Menschheit selbst.  LLM systems harvest everything that can be made digital, and then use it to train corporate AI models (Kate Crawford, 2023).

Eine Welt ohne Machtasymmetrien ist nicht realistisch. Entscheidend ist, ob sie verhandelbar bleiben. Die digitale Infrastruktur von heute wird von wenigen Konzernen kontrolliert. Machtasymmetrien sind der Verhandlung entzogen. Das eigentliche Problem ist die Vorwegnahme des Politischen durch die Architektur der Technik.
Polanyi beschrieb die Einbettung der Wirtschaft in die Gesellschaft als demokratische Aufgabe. Heute geht es um eine demokratisch legitimierte Kontrolle der digitalen Infrastruktur. Dagegen stehen nicht nur wirtschaftliche Macht, sondern ein Fortschrittsbegriff, der sich auf technologische und ökonomische Expansion verengt.
Die Verengung des Fortschrittsbegriffs ist keine Interpretation von außen, sie ist Selbstbeschreibung führender Tech-Ideologen.

American Dynamism – Fortschritt als nationale Macht

American Dynamism: Die Timeline von Fortschritt und Innovation – nach Klick auf neuer Seite in voller Auflösung

American Dynamism ist diese Selbstbeschreibung in institutioneller Form. Zunächst der Titel eines Investmentfonds aus dem Hause Andreessen & Horwitz (a16z), der explizit in  founders and companies that support the national interest investiert.  Schwerpunkte liegen in Verteidigung/ Rüstung, Raumfahrt, Robotik, generell Hard Tech.
American Dynamism ist keine Organisation, der man angehört, sondern eher eine Programmatik/ ideologische Formation, der Akteure zuzurechnen sind. Der Begriff Dynamism selbst soll das Silicon Valley aus der Plattform- und Konsumphase herauslösen und mit industrieller und militärischer Innovation verbinden. Zugleich wird das meiste von dem, was als gesellschaftlicher Fortschritt verstanden wurde, wie Sustainability/ Nachhaltigkeit, Inklusion, demokratische Regulierung, ausdrücklich als Bremse verworfen.
Der Fonds ist die ökonomische Basis, American Dynamism operiert aber gleichzeitig als politisches Lobbying-Programm, kulturelles Narrativ und als Transmissionsriemen zwischen Tech, Kapital und Staat, ausserdem als Konferenzformat, das Pentagon-Offizielle, Kongressabgeordnete und Startup-Gründer zusammenbringt.

Am deutlichsten drückt sich American Dynamism in seinem Bildprogramm aus. Die visualisierte Timeline auf der Website – von den Wright Brothers bis zur Generativen KI – konstruiert eine Kontinuität militärischer und technologischer Macht als amerikanischer Zivilisationsgeschichte. Das Manhattan Project steht gleichberechtigt neben der Mondlandung. Steve Jobs, dessen universalistisches Selbstverständnis dem nationalen Narrativ eigentlich widerspricht, wird reduziert auf das iPhone, sein erfolgreichstes Produkt.
Bezeichnend ist das Fehlen universeller Werte: keine Wikipedia, keine Open-Source-Bewegung, kein partizipatives Web – nichts von dem, was digitalen Fortschritt einmal als gesellschaftliches Projekt erscheinen liess.
Ein Hero Banner Video mit dem Titel  It’s time to build als Einstieg zur Website vervollständigt die heroische Inszenierung mit Drohnen, Raketenstarts, futuristischen Fabriken, Präzisionstechnologie, begleitet von einem Voice Over mit Slogans wie Technology is our birthright, dazu Gesichter von BigTech Grössen, wie Sam Altman und einem verzückten Elon Musk, Techgeschichte als nationale Glorie Amerikas.  Es ist eine Ästhetik, die nicht überzeugen, sondern überwältigen will. Argumente werden nicht ausgetauscht – ein Wille zur Grösse, insbesondere technologischer Grösse wird herausgestellt.

Cyberlibertarismus 2.0

Eine bemerkenswerte Verschiebung der Beziehung zum Staat wird deutlich. Technologie wird nicht mehr primär als Marktinnovation präsentiert, sondern als Voraussetzung nationaler Stärke.  BigTech bewegt sich weg von einer globalistischen Perspektive hin zu einer engeren Verbindung mit nationalstaatlicher Macht. KI wird so als genuin amerikanische Technologie verstanden.
Cyberlibertarismus bedeutete in erster Linie die Freiheit von Regulierung, aber selektiv: Their freedom doesn’t mean your freedom. Eine Haltung, die den Ausbau eines Machtpols ermöglichte. Heute, wo dieser Machtpol gefestigt ist, wird nicht mehr die  Freiheit von staatlichen Macht angestrebt, sondern ihre Kontrolle.
Wie dieser Machtpol Alternativräume schließt, Zukunftsräume bestimmt und ob Gegenkräfte entstehen können – das sind die Fragen eines Folgetexts.

Digitaler Fortschritt ist in seiner derzeit dominanten Form kein Menschheitsversprechen zu einer von allen zu gestaltenden  Zukunft  mehr, sondern Teil machtpolitischer Strategie.

 

Benjamin Bratton    The Stack: On Software and Sovereignty (2016). 2.Ausgabe 2026 —  Planetary Computation’s Next Phase  MIT Press Reader 2/2026.
McKenzie Wark: The Stack to Come. On Benjamin Bratton’s The Stack  12/2016 – im Blog: Die große Transformation – Polanyi und die Digitalisierung.  * Anna Verena Nosthoff, In: Die Geburt des Tech Kapitalismus aus dem Geist der Gegenkultur.: agora 42. Das philosophische Wirtschaftsmagazin .01/2026

Selbstbeschreibung American Dynamism:  American Dynamism embodies the spirit of innovation, progress, and resilience that drives the United States forward. This powerful force is exemplified by groundbreaking achievements in         technology and innovation, shaping both our nation and the global landscape. It reflects the  American commitment to pushing boundaries, embracing challenges, and always striving for a brighter, more prosperous future. Investing in visionary founders and teams tackling the world’s most pressing problems is essential to fueling this dynamic spirit and ensuring continued progress for generations to come.



SideMenu