Der Browser mit dem Informationsüberschuss

Deep Dive im Datenmagma: KI- Browser Atlas von Chat GPT

OpenAI hat in der letzten Woche den Browser ChatGPT Atlas vorgestellt. Ich habe ihn heruntergeladen und genauer angeschaut.

Atlas zählt zur neuen Generation von  KI-Browsern und wird von OpenAI als konsequente Weiterentwicklung des Browsers im Zeitalter der KI vorgestellt.  In der KI-Integration geht Atlas weit darüber hinaus, was etwa Comet von Perplexity bietet.
Standardmässig zeigt der Browser bei Suchanfragen keine Link- Liste, sondern eine KI-generierte Übersicht zum Suchbegriff an. Schlechte Zeiten für die Betreiber der Websites des World Wide Web- die Zugriffe auf ihre Inhalte werden sich so verringern. Für Medien, Blogs, kleinere Anbieter und wissenschaftliche Seiten bedeutet das einen massiven Verlust an Reichweite.

Atlas zu benutzen erfordert zunächst  eine Anmeldung mit einem bestehenden oder neu zu errichtenden ChatGPT Account – von da an ist man fest verbunden. Atlas ist kein Browser mit ChatGPT, sondern ChatGPT mit Browserhülle.

Kaum eingeloggt, werde ich vom Bot wie ein alter Bekannter begrüsst, mit persönlich angepasster Wortwahl – als ob ich in ein neues Wunderland eintrete und gleich an die Hand genommen werde. Meine Fragen nach den Funktionen, was neu ist im Vergleich zu anderen Browsern – und auch eine soziologisch-kritische Einschätzung,  werden umfassend beantwortet, alles erfolgt  in demselben persönlich zugeschnittenen Ton.

Kein Wunder, denn Atlas greift auf ein Archiv, (oder nennt man es besser Dossier?) zurück., in dem das wesentliche aus knapp drei Jahren (seit 1/23) mehr oder weniger intensiver Chat GPT Nutzung gespeichert ist.  Es gibt einen Ort dafür – das sind die Erinnerungen/ Memories, einsehbar über Einstellungen <Personalisierung.
Alle Memories beginnen mit Der Benutzer hat…/arbeitet an…/ befasst sich mit… und fassen den Inhalt der einzelnen Sitzungen zusammen. Mir wird mulmig dabei, mit dem Gefühl, das eine neue Schwelle automatisierter Überwachung überschritten wurde. Dabei fällt mir ein Erlebnis ein, als ich vor Jahren in einer Büroschublade Merkzettel fand, kurze,  indiskrete Notizen zu den persönliche Eigenheiten von Mitarbeitern, Geschäftspartnern und Kunden. Nicht offiziell, sondern private Gedächtnisstützen. Aber wirksam bei späteren Entscheidungen.

Die Memories lassen sich zwar deaktivieren, doch wenn sie aktiv sind, merkt sich Atlas, was man liest, sucht, formuliert – quer über Tabs und Sitzungen hinweg. Kein klassischer Verlauf mehr, sondern ein zweckgerichtetes Gedächtnis, das Muster erkennt und verdichtet. Dieses Erinnerungsfeld gehört nicht mehr dem Nutzer, sondern wird im Ökosystem von OpenAI verwaltet.
Dann gibt es die Einstellung Browsing und Suche verbessern helfen  unter Datenkontrolle: Sie erlaubt es, Atlas regelmäßig Teile des Surfverlaufs und der Nutzungsdaten an OpenAI zu senden.
Die eine Funktion schafft ein Gedächtnis im System, die andere füttert das System selbst – zusammen bilden sie das Reservoir eines neuen Informationsüberschusses.

Der Begriff geht zurück auf Niklas Luhmanns Verweisungsüberschuss von Sinn. Neue Medien oder Techniken stellen Möglichkeiten bereit, für die es zunächst keine konkrete Verwendung gibt.
Shoshana Zuboff beschrieb 2018 in ihrer Analyse des Überwachungskapitalismus, mit  Verhaltensüberschuss jenen Anteil an Nutzerdaten, der nicht zur Verbesserung von Diensten gebraucht, aber dennoch gesammelt wird. Bei Google wurde aus diesem Überschuss ein Geschäftsmodell. Der Verhaltensüberschuss ermöglichte Vorhersagen über künftiges Nutzerverhalten und damit personalisierte Werbung.  Daten, die vorher ungenutzt blieben, wurden zu verwertbaren Aktiva.

Bei Google waren es Klicks und Verweildauer, in der KI- Datenwirtschaft geht es um Gedankenbewegungen und Formulierungen, um das stille Konzentrat aus Interaktionen, Emotionen, Lese- und Schreibgewohnheiten, das im Hintergrund entsteht. Der Nutzer wird nicht mehr beobachtet, sondern begleitet.
Ein qualitativ neuer Datenrohstoff entsteht. Nicht was jemand tut, sondern warum,  das semantische Profil eines Subjekts. Diese Informationsdichte ist ökonomisch wertvoller als Klicks oder Käufe, weil sie Vorhersage durch Verständnis ersetzt. Hier entsteht der entscheidende neue Informationsüberschuss. 

Mein erster Eindruck bestätigt sich: Atlas (und das ChatGPT-Ökosystem insgesamt) markiert einen Paradigmenwechsel: Die KI wird nicht mehr aufgerufen, sondern ist dauerhaft präsent. Nicht mehr Werkzeug, sondern Begleiter, nicht mehr Reaktion, sondern Präemption – vorauseilende Handlung. Die KI vergisst nicht, sie akkumuliert. Das System soll vor dem Nutzer wissen, was er braucht, denkt oder sucht.

Der ökonomische Hintergrund erklärt die Dringlichkeit. OpenAI steht trotz Milliardenumsätzen vor massiven Verlusten – die enormen Kosten für KI-Training und -Betrieb übersteigen die Einnahmen. Ein eigener KI-Browser soll neue Einnahmequellen erschließen und durch direkten Nutzerzugang, Datensammlung und darauf folgende Monetarisierung die wirtschaftliche Position stabilisieren.
Browser sind mehr als Software, sie sind die Zugangspforten zur digitalen Öffentlichkeit, Schnittstelle zwischen Nutzer und Web. Sie definieren, wie Inhalte dargestellt werden, welche Daten gesammelt und wie sie genutzt werden. Wer den Browser kontrolliert, beeinflusst Nutzungsverhalten und  kollektive Gewohnheiten, die Art und Weise, wie Menschen das Internet erleben.
Es geht um die Vormacht im Netz. Seit über einem Jahrzehnt dominiert Google mit Chrome den Browser-Markt – mit etwa 68% Marktanteil erreicht das Unternehmen Milliarden Nutzer. Chrome ist auf die Interessen des Mutterkonzerns Alphabet optimiert: nahtlose Integration mit Google Search, direkte Anbindung an Ad-Systeme, Kontrolle über Datenflüsse. Jede Browser-Ära war nicht nur Technik-Wettbewerb, sondern Kampf um die Kontrolle des wirtschaftlichen Ökosystems im Netz.
Atlas ist OpenAIs Versuch, diese Hegemonie zu brechen, ein Machtkampf mit offenem Ausgang. Google/ Alphabet ist nicht wehrlos: Gemini könnte in Chrome integriert werden, und hätte sofort Milliarden Nutzer. Der Unterschied läge dann nicht mehr in der Technologie, sondern nur noch darin, wessen Informationsüberschuss wächst.
Eine solche Verschiebung. vom Modell des Verhaltensüberschusses zum Informationsüberschuss im Digitalen Kapitalismus ist absehbar. Eine Entscheidung zwischen den Kontrahenten ist noch offen.

Ich bin nicht der einzige, dem ein Unbehagen aufstösst. t3n, eine wichtige Stimme in der deutschen Digitalwirtschaft, beschreibt Atlas allerdings  als clever integrierte Innovation, als den bislang beeindruckendsten KI-Browser. Sicherheitshinweise erscheinen als Randnotiz, Privacy-Einstellungen als Formalität.

Die bisher schärfste Warnung kommt nicht aus den Zentren der digitalen Wirtschaft, sondern aus NordmazedonienBozidar Spirovski (Skopje) warnt auf LinkedIn eindringlich und konkret. Seine Einschätzung: Atlas sollte nicht mit geschäftlichen Daten genutzt werden. Der Browser hat Zugriff auf alle offenen Sessions – E-Mail, CRM, interne Tools. Alles, was parallel geöffnet ist, kann von der KI verarbeitet werden.
Spirovski benennt fünf konkrete Risiken: Erstens können bösartige Websites den Browser-Agenten kapern (Prompt Injection). Zweitens werden Inhalte aller Tabs auf OpenAI-Servern verarbeitet – ohne dass Kunden dem zugestimmt haben. Drittens bedeutet ‘Löschen‘ nicht wirklich löschen: OpenAI stand bis Oktober 2024 unter Gerichtsbeschluss, alle Logs zu bewahren. Viertens gibt es keinen wirklich privaten Modus – selbst Incognito speichert 30 Tage. Fünftens ist fast jede geschäftliche Nutzung mit Kundendaten ein potentieller GDPR-Verstoß.
Besonders brisant ist der Agent Modus (nur in der Pro-Version). Was als Convenience gedacht ist – die KI bucht einen Flug, füllt ein Formular aus –, wird zum Sicherheitsrisiko: Ein gehackter oder manipulierter Agent könnte auf alle eingeloggten Dienste zugreifen. Für europäische Unternehmen bedeutet das: Ein Mitarbeiter, der Atlas nutzt, während er im Kundensystem eingeloggt ist, erzeugt automatisch eine meldepflichtige Datenübermittlung in die USA.

Bisher habe ich im Consumerbereich keine übergriffigere Software erlebt. Mit Atlas verschiebt sich das Verhältnis zwischen Nutzer und System erneut – von der Überwachung des Verhaltens (Google) zur Begleitung der Handlung (OpenAI). Die Maschine beobachtet nicht mehr aus der Ferne, sie begleitet den Nutzer beim Denken, Lesen, Schreiben. Das ist keine Übertreibung, sondern Funktionsbeschreibung.
Das genannte  Dossier ist nicht bösartig an sich – es ist ein Ordnungssystem. Aber jedes Ordnungssystem kann in Überwachung kippen, sobald die Zweckbindung entfällt. Ein Staat, der Zugriff auf so ein Archiv hätte, hätte nicht nur Daten, sondern auch die Denkspur. Er sähe nicht nur, was man getan hat, sondern warum. Das ist neu. 

Hinter dem Start von Atlas stehen ökonomische Gründe. OpenAI steht unter massivem wirtschaftlichem Druck. Mit den wachsender Nutzerzahlen steigen die Kosten mehr als die Einnahmen. Atlas soll Nutzer an das OpenAI-Ökosystem binden und durch sie kontinuierlich Trainingsdaten generieren, um die explodierenden Kosten für Datenakquise zu senken. Was als personalisierte Erfahrung vermarktet wird (Memories, Browsing-Integration), ist aus dieser Perspektive ein System zur kostenlosen Extraktion von Trainingsdaten. Nutzer werden zu unbezahlten Datenlieferanten für zukünftige Modelle -die Neuauflage eines erprobten Modells.

Für LinkedIn habe ich diesen Text noch einmal überarbeitet und neu zusammengefasst: Link



Der Wert von Kultur- und Wissensarbeit im Zeitalter von KI

Wir geben uns auf nennt Autor Matthias Hornschuh seine Schrift zu KI, Kultur und die Entwertung der Wissensarbeit.
Seine Perspektive ist die der Kulturproduzenten – deren Interessenvertreter (Initiative Urheberrecht) er ist.  Das Buch ist eine Verteidigung der Unersetzlichkeit subjektiver Erfahrung, eine Streitschrift für das Recht auf Autoren- und Urheberschaft – und eine angemessene Beteiligung an der Wertschöpfung.

Was das Buch für die weitere Diskussion interessant macht, ist die grundsätzliche  Frage nach dem Wert von Kultur- und Wissensarbeit in Zeiten von KI. Das gilt für Musik, wie für Bilder, Texte und wissenschaftliche Arbeit.

Matthias Hornschuh ist Filmkomponist, ein Zweig der Musikwirtschaft, der besonders von Einnahmeverlusten durch KI bedroht ist. In keiner anderen Branche ist der Widerstand gegen die Landnahme der KI-Konzerne so ausgeprägt wie bei Musikern. Die KI kollidiert mit ihrem Selbstverständnis: Musiker definieren sich über ihre Kunst, und ihre Einkünfte beruhen (neben Live-Auftritten) auf urheberrechtlich gesicherter Verwertung.
Jede wertschöpfende Nutzung erzeugt für die künstlerischen Urheber einen Anspruch auf Vergütung. Es gibt ein funktionierendes System von Urheberrechtsschutz und Verwertungsgesellschaften.

Genau dieses System wird durch generative KI unterlaufen. Die KI-Modelle werden millionenfach mit rechtlich geschützten Musikstücken trainiert – ohne Erlaubnis, ohne Lizenz, ohne Kompensation. Sie extrahieren aus Werken, die in künstlerischer Arbeit entstanden sind,  verwandeln sie in Rohmaterial zur algorithmischen Rekombination und setzen damit das eingespielte Vergütungssystem außer Kraft.
Entstehen daraus neue Werke, stellt sich die Frage, ob sie als eigenständige Werke  zu verstehen, oder Originalen zu ähnlich sind und damit Urheberrechte verletzen. Plagiate sind in der Musik vergleichsweise leicht nachweisbar, bereits kurze, aber prägnante Melodien sind geschützt.
Ein Musiker bzw.  Komponist, dessen Werke ohne Erlaubnis und Vergütung zum KI Training gekapert wurden, erlebt es genauso als ökonomische Bedrohung, wie als einen Übergriff auf seine Identität, ganz besonders bei  der Imitation von Stilen und dem Klonen von Stimmen.  Der Übergriff der KI- Unternehmen wird als Diebstahl erlebt und auch so genannt.  

KI-generierte Sounds haben sich vor allem dort ausgebreitet, wo Musik funktional, nicht künstlerisch ist: lizenzfreie Hintergrundmusik für Werbung, Online-Content, Games, Klangteppiche in Shopping-Malls (die tatsächlich als Beschallungspakete verkauft werden). All das, was als Muzak oder Fahrstuhlmusik geschmäht wird, hat aber als stabile Einkommensquelle ambitionierte Arbeiten oft querfinanziert.

Einschätzungen und Nutzungsmuster von KI unterscheiden sich in anderen Branchen der Kreativwirtschaft deutlich von denen in der Musikwirtschaft. Es gibt Parallelen. Generell gilt, dass funktionale, routinehafte Formate, wie z.B. Stockfotografie, Technische Dokumentationen, Transkriptionen von KI übernommen werden bzw. es bereits sind. Kreative Formate behalten ihren Singularitätswert, mit all den Marktrisiken wie bisher.

Textarbeiter sehen sich nur selten als Künstler. Urheberrechte gelten zwar, spielen aber eine geringere Rolle. Auf der Website des Deutschen Journalisten-Verbandes heisst es zwar an prominenter Stelle Qualitätsjournalismus lebt von menschlicher Recherche. Generative KI, die nur wiederkäut, was bereits gedacht und gesagt wurde, kann keine neuen Perspektiven schaffen. In der Praxis herrscht ein  pragmatischer Umgang. Derselbe Verband bietet Fortbildungen zu KI an – wie auch fast alle anderen als Fortbilder bekannten Träger.  KI-Kompetenz wird als von jetzt an für Journalisten wesentlich erachtet.
KI wird als Werkzeug  gesehen, das Routinen erleichtert. In diesem Sinne wird sie mit fast dem gleichen Selbstverständnis genutzt, wie Textverarbeitung und Suchmaschinen. Ihre Stärke liegt nicht in der Erstellung kompletter Texte, sondern in der Assistenz im gesamten Schreibverlauf, bei der Recherche, Strukturierung, Formulierung, Korrektur etc.

Oft werden Geschichten von halluzinierenden Antworten der KI erzählt, von Anwälten, die ungeprüft KI- erzeugte Plädoyers einreichen etc., so auch in  Hornschuhs Text. Jeder, der sich bislang mit KI befasst hat, hat wohl die Erfahrung gemacht, das man den Ergebnissen nicht blind vertrauen kann. Komplette Automatisierung gelingt nur bei niedriger Komplexität.
Für komplexere Aufgaben muss KI gezielt eingesetzt, geradezu bespielt  werden, nicht nur mit Prompts. Was KI nicht kann, ist eigenständige Recherche, kritisches Urteil. Sie kann Muster erkennen, aber nicht Neues denken, das über diese Muster hinausgeht.

KI-Training klingt harmlos, aber allein im Musikbereich geht es um mindestens 100 Millionen Songs – das gesamte verfügbare Repertoire von Spotify, YouTube, SoundCloud. Manchmal ist vom gesamten digital verfügbaren Kulturerbe der Menschheit die Rede, von der umfangreichsten kulturellen Aneignung der Geschichte. Der Begriff der Landnahme trifft diese Dimension.

Es gibt ein Grundproblem, den Elefanten im Raum, das sich seit dem Social Web und dem Plattformkapitalismus fortsetzt. Es ist die übergrosse und dazu bislang juristisch privilegierte  Macht der Intermediäre, der Vermittler von Inhalten, die sie zwar nicht selber erstellen, aber durch algorithmische Auswahl, Aggregation und  Präsentation vermitteln.
We are building a brain for the world – Sam Altmans Satz in einem Interview im Juni 2025  erschreckt durch sein imperiales Wir. Gemeint ist die gesamte Branche, nicht Open AI allein.
Ist die Tech- Branche dazu ermächtigt, Wissensgewinn, Kreativität und Kommunikation für uns alle neu zu gestalten? Was zuvor Gemeingut oder urheberrechtlich geschützt war – Internet, Kultur, Wissen – wird nun von Tech-Konzernen eingehegt. Sie trainieren auf der digitalen Allmende – und privatisieren die Erträge.  Es geht um  Landnahme, die Einnahme und Monopolisierung des durch die Wirkung neuer Technologien entstehenden Raumes.
KI kann hervorragend Werke und Texte nach erkannten Mustern produzieren.  Die spannendsten Momente entstehen allerdings nicht durch deren perfekte Beherrschung, sondern durch deren überraschende Brechung. Es setzt voraus, dass jemand will, dass etwas anders läuft – eine Intention, die KI allein nicht haben kann.

Eine grundsätzliche Kritik hatte Kate Crawford bereits 2021 im Atlas of KI (Rezension) formuliert: die Kultur der Extraktion – Gemeint ist die Abschöpfung von Zulieferungen materieller, operativer und ideeller Art. Hinzuzufügen ist kulturelle Extraktion. Lässt sich anschliessend an den Überwachungskapitalismus (Shoshana Zuboff) von einem Extraktionskapitalismus sprechen?

Wie Kunst entsteht, was dafür nötig ist, welcher Aufwand von wem an welcher Stelle zu treiben ist, darüber legen die Produkte der Arbeit keine Rechenschaft ab (19).  Ein Song mag in zehn Minuten geschrieben sein, aber er ist das Destillat jahrelanger Übung, gescheiterter Versuche, durchlebter Erfahrungen. Ein Text wirkt mühelos, weil die Mühe unsichtbar wurde. Am Ende zählt die Wirkung, die Bereicherung, oder die gelungene Unterhaltung (vgl. 19).  Kunst verschleiert ihre eigenen Produktionsbedingungen – und KI radikalisiert diese Verschleierung: Sie produziert in Sekunden, was wie das Ergebnis jahrelanger Arbeit aussieht, ohne je etwas erlitten, durchgearbeitet, verworfen zu haben.

Referentialität – die Nutzung bestehenden kulturellen Materials in aktuellen Produktionen – kennen wir seit langem: Remixes, Collagen, MashUps, Coverversionen, das Konzept Retro, Inszenierungen wie Cosplay: Bedeutungszuweisungen werden zusammengeführt. Aus Vorhandenem entsteht Neues, aber durch bewusste Auswahl, Kontextverschiebung und Neuinterpretation.  Autorenschaft bleibt bestehen.
KI entgrenzt die kulturelle Referentialität, ihre Quellen, Ursprünge und Autorenschaften sind nicht mehr erkennbar: Kulturelle Extraktion entsprechend dem Modell von Kate Crawford.

Die Frage, wie denn in Zukunft das Neue in die Welt kommt, zieht sich durch Hornschuhs gesamten Text. Daran lässt sich eine zweite Frage anschliessen: Inwieweit sind die Effekte der KI für den Nutzer  beherrschbar? Wie gelingt der Zufluss neuer, innovativer und vielfältiger Inhalte, wenn das Wissen der Welt in einer Datensuppe gespeichert ist?  KI kann daraus Muster rekombinieren, aber nicht diese Muster brechen.
Daneben bleibt weiterhin die Frage der materiellen Entgeltung kreativer Arbeit und Wirkung. In der Musik mag das Urheberrecht einigermassen funktioniert haben. Für Schreibende sind die Ausschüttungen der VG Wort höchstens ein nettes Zubrot.
Seit gut 30 Jahren wird Kultur- und Kreativwirtschaft als eigenständiger Wirtschaftsfaktor vermessen – und damit auch politisch und ökonomisch aufgewertet.

Bild: unsplash +

Die heute verbreitete Vorstellung, dass diese Branchen ökonomisch und gesellschaftlich zentral sind, geht wesentlich auf Richard Florida zurück – auch wenn sein Konzept mittlerweile umstritten ist. Die 2002 von ihm beschriebene Creative Class galt als Träger des Übergangs von einer industriellen zu einer postindustriellen, wissensbasierten Gesellschaft.

Der Begriff Creative Class war von Beginn an weit gefasst: Gemeint sind alle, die neue Ideen, Technologien und kreative Inhalte schaffen – von Wissenschaft, Technik und Forschung über Management und Beratung bis zu den Künstlern der einzelnen Genres. Als gesamtes Cluster sollten sie Wirtschaftswachstum anstoßen.

Zentral war der Dreiklang von Technologie, Talent, Toleranz, als maßgeblicher Standortfaktor und Rezept für erfolgreiche urbane Entwicklung. Städte warben mit lebendigen Kreativszenen: Berlins zeitweiliges Motto „arm, aber sexy”, der Boom in Barcelona, unzählige Kreativzentren von Lissabon bis Tallinn. Die Creative Class gilt weiterhin als Trendsetter für neue urbane Konsumgewohnheiten – von Craft Beer bis zur Öffnung des Konsums zur Popularkultur.
Der Alltag liegt allerdings zwischen Glamour und Prekarität. Kreative haben den Wert zahlloser Stadtviertel erhöht, in denen sie sich die explodierenden Mieten oft selbst nicht mehr leisten können. Kreative Metropolen wurden oft zu Hotspots von  Gentrification und  Overtourismus, zwischen denen die Kreativen oft zerrieben werden.

Was bleibt? Man kann die Entwicklung kulturpessimistisch sehen und eine Welt erwarten, die immer mehr von Algorithmen gesteuert wird. Man kann einen Crash des KI-Hypes voraussehen – aber was bleibt dann davon? Es gibt zentralistische Übergriffe, puristische Verweigerer und begeisterte Nutzer – und es gibt den regulatorischen Bedarf.
Gegen Kulturpessimismus spricht, dass sich kreative Branchen, insbesondere Popularmusik, bisher immer neue Techniken angeeignet haben.

 

Matthias Hornschuh : Wir geben uns auf. KI, Kultur und die Entwertung der Wissensarbeit. 96 S.  Carl Auer Verlag. Update Gesellschaft. 9/2025. – u.: Den Kreativen steht das Wasser bis zum Hals. Börsenblatt 1.10.24 – Sounds of Science – Podcast zum. Buch  vgl.: Neue Studie belegt: KI-Training verletzt Urheberrechte. – KI in der Musikproduktion – Kreativer Partner oder Bedrohung für die Musikkultur? Maximilian Burger: Urheberrecht bei KI-generierten Beiträgen: Handlungsbedarfe und Nutzungschancen für den Bildungskontext 2/2025. – KI in der Musikproduktion – Kreativer Partner oder Bedrohung für die Musikkultur? 16.6.25 (musik23)  – Franziska Busse, Jan Philipp AlbrechtKünstliche Intelligenz als Kreativschaffende?  25.04.25 (Heinrich- Böll Stiftung). 



Empire of AI – Dreams and Nightmares in Sam Altman’s Open AI (Rez.)

extraktiver Kolonialismus

An diesem Buch kommt  nicht vorbei, wer sich ernsthaft mit der gesellschaftlichen Dimension von KI befasst.
Karen Haos Empire of AI erschien bereits vor drei Monaten. Spät dabei zu sein, bringt auch den Vorteil mit sich, dass man erste Reaktionen und Rezensionen in die eigene Besprechung einfließen lassen kann.
Empire of AI wurde nahezu durchgängig positiv hervorgehoben – als kritische, detailreiche Analyse der globalen KI-Industrie und ihrer imperialen Strukturen – hervorragend und gründlich recherchiert, mit kritischem Insiderwissen als Hintergrund.
Wer das Silicon Valley der 2020er Jahre, den KI-Boom und seine weltweiten Auswirkungen mit nur einem Buch verstehen möchte, sollte dieses lesen.

Karen Hao schreibt nicht von außen über die KI-Industrie. Empire of AI lässt sich als journalistische Ethnographie lesen. Teilnehmende Beobachtung ist der Rahmen. Persönliche Erlebnisse fließen ein, die Basis der Analysen sind aber über 300 Interviews, ergänzt durch Korrespondenzen und andere Dokumente.

Karen Hao war über Jahre hinweg Teil des Ecosystems in dem sich KI- Unternehmen entwickelten. Sie teilte Wohnungen mit Entwickler:innen, nahm an internen Treffen teil und führte Hintergrundgespräche mit Gründerfiguren wie Sam Altman.  I was the first journalist to profile OpenAI. I embedded within the company for three days in 2019 sagte sie in einem Interview.
Ihre Sichtweise changiert zwischen Beschreibung aus der Nähe und Analyse, diese Spannung macht den Wert ihrer Darstellung aus. Der Text bleibt dabei auf immerhin 482 Seiten gut lesbar.

Etwas überrascht hat mich, dass Karen Hao an keiner Stelle den Atlas of AI von Kate Crawford (2021) erwähnt. Beide Autorinnen benennen die extraktive Logik der KI, beide analysieren globale Machtasymmetrien und die Auslagerung von Datenarbeit als crowdworking, thematisieren eine  postkoloniale Ausbeutung, beide argumentieren kritisch gegenüber dem Silicon Valley.
Crawfords Buch ist eher akademisch, in den Critical Data Studies verankert. Hao geht es um investigative  Aufklärung. Beide Bücher ergänzen sich in ihrer Wirkung und  ihrer kritischen Perspektive .

Kaum eine Technik ist unschuldig – und KI ist es auch nicht. Zentrales Thema des Buches ist der Widerspruch zwischen dem Versprechen einer künstlichen allgemeinen Intelligenz, einer Technik, die der gesamten Menschheit zugute kommen sollte und der  messy, secretive reality behind OpenAI’s bid to save the world  -wie es die Autorin  bereits im Februar 2020 schrieb.

KI, wie generell digitale Techniken, wird meist als dematerialisiert wahrgenommen. Das mag in der Endausgabe so erscheinen. Letztlich beruht KI aber auf der Abschöpfung materieller, energetischer, kultureller und kognitiver Ressourcen:
Benötigte Ressourcen sind so breit gestreut wie seltene Erden und andere Mineralien, Energie, Wasser, ausgelagerte menschliche Arbeitskraft, kulturelle Produkte, digitalisiertes menschliches Wissen, die Datenfülle der Plattformen etc. – Ohne all diese Ressourcen gäbe es KI nicht.

OpenAI wurde mit dem Anspruch auf Transparenz gegründet. Im Vordergrund stand die Idee, eine künstliche Intelligenz zu entwickeln, die value for everyone rather than shareholders schafft – einen Nutzen der weltweit gerecht verteilt werden sollte, jenseits privatwirtschaftlicher Interessen.
In der OpenAI Charter, einer Art ethischem Leitbild bzw. selbstgegebener Verfassung, heisst es: To ensure that artificial general intelligence benefits all of humanity und weiter: We are committed to broad distribution of benefits and long-term safety, and to cooperative orientation with other research and policy institutions. 
Hao setzte dem schon 2020 eine Beschreibung der realen Logik entgegen: Nicht das ethische Leitbild treibt das Handeln an, sondern die Angst, den entscheidenden Innovationsschub zu verpassen.
The need to be first or perish
beschreibt die geltende Systemlogik, unter der das Unternehmen längst operiert. Das ursprüngliche Versprechen, eine künstliche Intelligenz zum Wohle aller zu entwickeln, steht heute im Spannungsverhältnis zu einem beschleunigten Innovationswettlauf, der sich durch die geopolitische Konstellationen verschärft: Die Entwicklung leistungsfähiger KI gilt zunehmend als strategischer Standortvorteil – technologisch, wirtschaftlich und militärisch. OpenAI bewegt sich in einem globalen Wettbewerb, in dem China als systemischer Rivale wahrgenommen wird.
Die Weiterentwicklung folgt in erster Linie der Logik des Venture Capitals, nicht der einer am Gemeinwohl orientierten Forschung. Hinzu kommt die enge Partnerschaft mit Microsoft die der ehemals gemeinnützigen Organisation eine neue Abhängigkeit schafft. Microsoft stellt nicht nur die notwendige Cloud-Infrastruktur bereit, sondern hat sich durch Milliarden-Investitionen direkten Zugang zu OpenAIs Technologien gesichert.

Die Idee einer Artificial General Intelligence  (AGI) – einer künstlichen Intelligenz, die den Menschen übertrifft oder gleichkommt – dient bei OpenAI als als strategisches Legitimationsnarrativ für gegenwärtige Entscheidungen  (vgl. Who is building a brain for the world?). 
OpenAI leitet aus der erwarteten Entwicklung von AGI den Anspruch ab, als vorausschauende Instanz zu handeln: to shape AGI before it shapes us. Damit erhebt das Unternehmen den Anspruch auf eine Mehrfachrolle als technischer Wegbereiter, ethischer Regulator und politischer Akteur.
AGI wird so zur Legitimationsfigur für weitreichende Entscheidungen – die Intransparenz bei GPT-4, die Einschränkung von Open Source oder die gezielte Bündelung von Ressourcen. Je größer die angenommene AGI-Gefahr, desto plausibler erscheint es, ihre Entwicklung wenigen, vermeintlich verantwortlichen Akteuren zu überlassen.
Ein Ziel, das bisher nicht erreicht wurde, verleiht dem Unternehmen bereits heute eine außerordentliche Stellung. Hao nennt es eine  quasi- religiöse Rhetorik – ich würde es als  tragenden Mythos bezeichnen.

Sam Altman, CEO von Open AI, wird  von Hao als ambivalente Schlüsselfigur beschrieben: als visionärer Kopf für eine transformative Technologie, zugleich geschickter Machtpolitiker – brillant, ideologisch flexibel, auf dem Grat zwischen Weltrettung  und dem Aufbau eines Imperiums.
Ein kennzeichnender Satz:   Every single person that has ever clashed with him about his vision of AI development has left.

KI-Unternehmen verschieben den Fokus digitaler Macht: Plattformen wie Amazon oder Facebook lieferten standardisierte Angebote und personalisierte Werbung. KI-Systeme hingegen erzeugen singularisierte Texte, Bilder oder Entscheidungen – oft in Echtzeit, oft einmalig. Diese Form automatisierter Einmaligkeit hebt sich deutlich von der Logik der klassischen Plattformökonomie ab (vgl. Automatisierte Singularisierung – KI und die Herstellung von Einmaligkeit)

Effektiver Altruismus (EA) bedeutet eine rational optimierte Philanthropie. Laut Hao durchlief EA eine bemerkenswerte Wandlung: von einer philosophischen Nischenbewegung zu einem dominanten Mainstream-Diskurs, mittlerweile hochgradig institutionalisiert und finanziell gut ausgestattet. EA dient als ethische Grundlage für die KI-Entwicklung und legitimiert dabei die Machtkonzentration bei wenigen Akteuren.
Insbesondere Anthropic (Betreiber von Claude Sonnet)  orientiert  sich an EA und hat sich mit Constitutional AI eine daran angelehnte Verfassung gegeben, die grundlegende normative Werte sicher stellen soll.
Karen Hao kritisiert aber auch die Praxis des Effektiven Altruismus als moralisierenden Vorwand für imperiale Praktiken, Ausbeutung und Machtkonzentration. Sie mahnt an, dass EA im Kontext der KI zu einer Legitimationsstrategie verkommen kann, die globale Ungleichheiten verstärkt, anstatt sie zu überwinden. Paradoxerweise kann EA durch seine Rationalisierung des Guten selbst zu einer Form technokratischer Herrschaft werden – was bei Kritikern auch so gesehen wird.

Karen Hao liefert keine Technikgeschichte und bedient keinen Fortschrittsnarrativ. Sie schreibt auch nicht über die Anwendungsmöglichkeiten in Medizin oder Klimaforschung. Ihr Interesse gilt unter welchen Voraussetzungen technische Potenziale entstehen – der Aufklärung über ihre Entstehungsbedingungen, Machtkonzentrationen und Versprechen. Ihre Frage ist nicht, was KI könnte – sondern was sie darf, wofür sie eingesetzt wird und wer darüber entscheidet.
Trotz ihrer demokratischen Gründungsnarrative bleiben die Innovationen der KI- Unternehmen in der Logik des Profits, der Kontrolle und der geopolitischen Interessen verhaftet – nicht anders, als man es bisher aus  der Tech Branche kennt. Die wenigen Unternehmen, die die leistungsfähigsten Modelle kontrollieren, haben massgeblichen Einfluss auf Diskurse, Bildung, Wissenschaft und gesellschaftliche Meinungsbildung. Sie entwickeln sich über multinationale Konzerne hinaus zu Imperien – so knüpft der Titel Empire of AI  an  frühere koloniale Imperien an. 

In einem Guest Essay der NewYork Times, kurz nach Erscheinen des Buches, formuliert die Autorin ihre aktuelle Sicht: Tech companies have long reaped the benefits of a friendly U.S. government, but the Trump administration has made clear that it will now grant new firepower to the industry’s ambitions. 
Das Streben nach KI bietet Unternehmen die Möglichkeit, mehr Daten als je zuvor abzusaugen, mit tiefgreifenden Auswirkungen auf die Privatsphäre und die Rechte des geistigen Eigentums der Menschen.

Die Diskussion zu KI hat sich in den letzten Monaten – entsprechend den politischen Ereignissen –  polarisiert bzw. verengt. Der Fortschrittsnarrativ verbindet sich immer stärker mit den imperialen Ambitionen von Big Tech, technologische Entwicklung wird als Grundlage globaler Machtarchitektur gesehen.
Auf der anderen Seite formiert sich eine scharfe Gegenbewegung, die in ihrer Fundamentalkritik oft luddistische und kulturpessimistische Züge annimmt. Begriffe wie Digitaler/ KI  Faschismus werden verwendet, die Technologie als solche diabolisiert.
Differenzierte Einschätzungen geraten in den Hintergrund. Dabei ist es gerade diese Haltung, die angesichts wachsender Alltagsnutzung – auch durch die Kritiker:innen selbst – Gestaltung ermöglicht.
Wer kontrolliert Technologie? Wie werden Nutzen und Risiken verteilt? Welche Gestaltungsmöglichkeiten haben wir (noch)?

 

Karen Hao: Empire of AI.:- Dreams and Nightmares in Sam Altman’s Open AI., New York 2025. : Silicon Valley Is at an Inflection Point. New York Time. 30.05.2025  – Karen Hao on How AI Colonialism Is Threatening the World.  . Democracy Now, 4.06.2025 – Inside the story that enraged OpenAi.MIT Technology Review. 19.05.2025.    The messy, secretive reality behind OpenAI’s bid to save the world. MIT Technology Review. 17.02.2020. Brian Merchant and Gail Brussel: Dismantling the Empire of AI with Karen Hao. Blood in the Machine.May 2025 Matteo Wang: The AI Industry Is Radicalizing. The tech industry and its critics occupy parallel universes. The Atlantic 12.07.25



Künstliche Intelligenz und der neue Faschismus (Rezension)

Künstliche Intelligenz und der neue Faschismusdas kompakte Büchlein  bringt zwei Themen zusammen, die uns seit einiger Zeit intensiv beschäftigen.
Autor Rainer Mühlhoff ist Professor für Ethik der Künstlichen Intelligenz an der Universität Osnabrück. Bereits im Februar hatte er in einem Beitrag im Verfassungsblog wesentliche Gedanken zusammengestellt, die jetzt weiter ausgearbeitet vorliegen.
160 Seiten im Reclam- Format passen in die Jackentasche für unterwegs, der Inhalt ist gut gegliedert, in Etappen lesbar und kostet mit 8 € nur etwas mehr als eine Wochenzeitung.

Der Hype um KI setzte mit dem Start von  ChatGTP im Winter 22/23 ein. Seitdem hat uns das Thema nicht mehr losgelassen. Ob man heute noch von einem Hype sprechen kann ist Ansichtssache. Zu sehr haben sich Nutzung und breite gesellschaftliche Resonanz von KI verstetigt. KI wird allerdings von wenigen Tech- Konzernen beherrscht – mit der Gefahr von Monopolisierung und Machtkonzentration.
Es war der Schulterschluss zwischen den Tech- Oligarchen und Trumps Maga- Bewegung – sichtbar  auf den Bildern von Trumps Amtseinführung – der sich einprägte. Rundum dieses Datum, etwa von Nov. 24 bis März 25, gab es Ereignisse, die man zuvor nicht für möglich gehalten hatte.

mittlerweile von Trump getrennt – aber der  Symbolgehalt des Bildes bleibt

Ereignisse wie die innenpolitische Machtübernahmen via DOGE, aussenpolitische Übergriffe gegenüber Verbündeten und szenische  Stunts wie Elon Musks  Nazi-Gruss vor den Augen der Weltöffentlichkeit.

Mittlerweile ist ein halbes Jahr vergangen. Eine Zeitspanne, in der Bücher dazu geschrieben und veröffentlicht werden. Bisher hat die Entwicklung zwar nicht gedreht oder an Bedeutung verloren, die Ereignisse überraschen nur nicht mehr so sehr. Nicht nur in den USA breiten sich in einer Art Trickle-Down-Effekt  autoritäre Tendenzen – getragen von Tech-Macht, Populismus und gezielten Kulturkämpfen –  aus und bedrohen liberale Demokratien und eine auf Verträgen beruhende Weltordnung.

Vorweg: ein sinnvolles und sehr nützliches Buch, mit dem ich in den meisten Teilen übereinstimme (vgl. meinen Blogbeitrag Tech- Faschismus – Ein Mash-Up als Machtsystem).
Grundthese ist, dass aus der Synergie von Alt- Right Politik und elitistischen Tech- Ideologien ein faschistisches Potential erwächst. Meine Zustimmung.
Skeptisch macht mich allerdings die behauptete ideologische und technologische Affinität von KI und Faschismus auf mehreren Ebenen – mit dem Verweis, dass bestimmte technologische Logiken mit autoritären, menschenverachtenden und antidemokratischen Ideologien besonders kompatibel seien (S. 12). Mühlhoff relativiert die These der spezifischen Faschismus- Affinität von KI zwar immer wieder, sie zieht sich jedoch durch den ganzen Text.
Drei Merkmale hält er fest, an denen faschistische Tendenzen erkannt werden sollten: Antidemokratisches Wirken, Gewaltbereitschaft  und die Nutzung von Technologie als Machtinstrument. KI kann leicht von den Interessen autoritärer und faschistoider politischer Kräfte vereinnahmt werden  – und wird es zum Teil bereits schon jetzt (vgl. S. 14 ff). 
Präemption – die Logik der Vorwegnahme –
ist ein Schlüsselbegriff in seiner Argumentation. Menschliche Zukunft wird antizipiert, bewertet und gesteuert, bevor tatsächliches Handeln überhaupt stattgefunden hat. Im schlimmsten Falle eine Menschensortier-Technologie mit folgender Ungleichbehandlung. Die Kontrolle über Entscheidungen wird an vordefinierte Systeme abgegeben, gesellschaftliche Teilhabe so selektiert.
KI ist für Mühlhoff im wesentlichen eine Technologie zur Ansammlung, Sicherung und Ausübung von Kontrolle,  und ist mit der Gefahr eines neuen, smarten Faschismus verbunden. Ohne demokratische Kontrolle und staatliche Regulierung eignen sich solche Machttechnologien ideal für autoritäre bis faschistische Zwecke (vgl. 34/35).
Dem lässt sich entgegnen, dass Technologien wie KI sowohl emanzipatorische wie autoritäre Potenziale beinhalten, abhängig davon, wie sie entwickelt und eingesetzt werden. Entscheidend bleibt, welche politischen Kräfte Technologie gestalten.

Die heute verbreitete Generative KI ist ein Kind des Social Web. Ohne dessen Datenfülle und die Digitalisierung des verfügbaren menschlichen Wissens gäbe es sie nicht. Die systematische Verknüpfung, Verdichtung und Automatisierung dieses Wissens ist nahezu zwangsläufige Folge der technischen Entwicklung und der gesellschaftlichen Digitalisierung. Generative KI-Modelle werden im weiteren oft mit großen Mengen an Werken trainiert, für die kein explizites Einverständnis der Urheber eingeholt wurde, so dass sich von einer Aneignung kultureller Schöpfung sprechen lässt.
Zu den materiellen Grundlagen empfiehlt sich übrigens immer noch der Atlas of AI von Kate Crawford.

Übersichtlich und nützlich sind die Beschreibungen der oft schwierig zu überblickenden, lose miteinander verknüpften Tech- Ideologien  die  in unterschiedlichem Maße wirksam sind.  Allen gemeinsam ist, dass sie technologische Disruption als Triebkraft gesellschaftlichen Fortschritts verstehen (71).

Technologischer Determinismus ist ein weiterer Schlüsselbegriff: Technischer Fortschritt gilt demnach als zentraler, unausweichlicher Treiber gesellschaftlicher Entwicklung. Deutlich wird diese Haltung in dem Techno-Optimist Manifesto aus dem Jahr 2023 Marc Andreessen, Investor, in seiner Jugend Entwickler des ersten Browsers Mosaic.  (*Auszug s.u.).
Cyberlibertarismus (vgl. die ausführliche Beschreibung im Blogbeitrag), kann als ideologisches Grundmuster der Tech-Branche gelten – eine Art Leitideologie, die sich durch eine fundamental ablehnende Haltung gegenüber jeder Form staatlicher Internetregulierung auszeichnet. Dazu gehört ein Freiheitsverständnis, in dem sich dann zwangsläufig Machtkonzentrationen und hierarchische Strukturen herausbilden
David Golumbia fasste Cyberlibertarismus kurz als “antidemocracy portraying itself as both democracy and “above” politics, when it is anything but” zusammen.
Effektiver Altruismus (EA) – der ethische Arm des Tech-Kapitalismus, wie ihn etwa Anthropic (Betreiber der KI Claude) vertritt. Grundgedanke ist, nach den effizientesten Wegen ein maximales Wohl für die größtmögliche Anzahl fühlender Wesen zu erreichen.
Mühlhoff kritisiert auch hier die technokratische Herangehensweise, die sich an quantifizierbaren Größen orientiert.

Insgesamt werden knapp 20 Tech- Ideologien bzw. – soziale Phänomene, wie die Manosphere, Trolle und Maskulinisten, detailliert beschrieben. Dazu zählen etwa Longtermismus, Transhumanismus mit mehreren Unterströmungen, Neoreaktionäre/ NRX, CEO- Monarchie. Einige davon sind eng mit den Haltungen und Strategien antidemokratischer Akteure verbunden. Allein diese Übersicht ist ein Grund, 8 € für das Büchlein auszugeben.

Diese ganze Vielzahl ideologischer Stränge kann als Ausdruck davon gelten, dass es um ein hegemoniales, aber auch umstrittenes Machtzentrum geht. Das Bewusstsein, nicht nur ein technologisches und ökonomisches, sondern auch ein politisches und kulturelles Machtzentrum zu sein, begünstigt eine imperiale Logik, die weitgehend geteilt wird. Markante Bruchlinien bleiben aber erkennbar.

Mühlhoff sieht in den Ideologien rund um das Thema KI die Gefahr,  dass faschistoide Tendenzen aus dem Geist einer technologischen Innovationskultur entstehen und sich durch ihre hegemoniale Dominanz verbreiten. Dass die Innovationskultur sich selber dabei abschafft bzw. zum Erfüllungsgehilfen wird, ist eine Folge.
Vor einigen Monaten hatte ich es in einem Longread als eine unstrukturiertere Entwicklung beschrieben: Ein neues Machtsystem bildet sich heraus: Ein Mash-Up, eine Verklumpung von Rechtspopulismus bzw. – extremismus und Digitalem Kapitalismus. Ein Machtsystem, das sich gegen genau das wendet, was in den letzten Jahrzehnten als gesellschaftlicher Fortschritt galt.

Rainer Mühlhoff : Künstliche Intelligenz und der neue Faschismus. Reclam Verlag  Juli 2025. Trump und der neue Faschismus. Warum der Griff nach dem Verwaltungsapparat so gefährlich. In: Verfassungsblog – 9.02 .25  i   —- vgl auch: David GolumbiaCyberlibertarians’ Digital Deletion of the Left.  und Tech- Faschismus – Ein Mash-Up als Machtsystem (in diesem Blog) ** vgl.: LOOPS Fascist AI with Malte Engeler and Tante. Aufzeichnung vom 3.07.25 , Berlin

  • Auszug aus dem Techno-Optimist Manifesto  (Marc Andreesen, 2023): Our civilization was built on technology. Our civilization is built on technology. Technology is the glory of human ambition and achievement, the spearhead of progress, and the realization of our potential. For hundreds of years, we properly glorified this – until recently. I am here to bring the good news. We can advance to a far superior way of living, and of being.

 



SideMenu