Hermes 3000 – ein Buch-o-Mat

Zuerst hatte ich es für eine Glosse gehalten. Oder für eine experimentelle Spielerei, etwas, was man entwirft, weil es möglich ist, egal ob nützlich oder nicht. Ein Pilotprojekt, von dem man noch nicht weiss, was daraus werden kann.
Die Selbstbezeichnung als KI-gestützte Plattform für kreatives Schreiben nimmt aber klaren Bezug zu dessen Methoden.

Hermes 3000 von HybridAI ist ein Buch-Generator. Kein Converter, der bestehende Vorlagen in E-Books umwandelt, sondern ein System, das fiktionale und nicht-fiktionale Texte von Grund auf generiert:
Schreibe Belletristik mit lebendigen Charakteren oder Sachbücher mit klarer Struktur – KI-unterstützt bis zum fertigen E-Book – so lautet die Zielbeschreibung auf der Startseite..
Der Name ist eine Hommage an die  portable Schreibmaschine Hermes 3000 aus Schweizer Produktion, die in den 60er und 70er Jahren hergestellt wurde und heute noch ein begehrtes Sammlerobjekt ist.

Das Dashboard von Hermes 3000. Nach Klick in voller Auflösung in neuem Fenster

Hermes 3000 verspricht viel. Das System sei so angelegt, dass es das Buch gemeinsam mit dem Autor/der Autorin schreibt, nicht anstelle von. Die Selbstbeschreibung liest sich ambitioniert:  Der Autor liefert die Vision, die Grundidee, die Themen, die Figuren, die großen Wendepunkte. Das System bewahrt den roten Faden und die innere Dynamik der Figuren (vgl. Blog).
Der Zugang zu den Funktionen erfolgt über ein Dashboard. Dort lassen sich die zentralen Parameter festlegen: Handlungsentwicklung, Schreibstil, Charaktere, Schauplätze (Screenshot vom Dashboard links).
Das Dashboard folgt der Logik kreativen Schreibens: Erst die Handlung entwickeln, dann Charaktere und Schauplätze definieren, schließlich den Stil festlegen. Was in Schreibratgebern als mühsamer Prozess beschrieben wird – Charakterbögen erstellen, Plotstrukturen entwerfen – soll hier in wenigen Klicks eingegeben und erledigt sein. 

Die Beispiele: Anspruch und Wirklichkeit

Der Plot in ein Bild gefasst. Nach Klick in voller Auflösung in neuem Fenster

Zwei Beispiele, die mit Hermes 3000 erstellt worden,  sind über die Eingangsseite zugänglich. Als Sachbuch eine Einführung in Javascript, die sich wahrscheinlich relativ einfach aus vorhandenen Vorlagen zusammenbauen und jeweiligen didaktischen Ansprüchen anpassen lässt.
Das zweite, belletristische Beispiel mit dem Titel Die letzte Frage wird als nachdenkliche Science Fiction Kurzgeschichte  (22 Seiten) vorgestellt. Die Graphik (re.) zeigt den Plot,  beim Lesen wird mir aber kaum eine Handlung klar.
Die Sätze sind kurz. Bewusst kurz. Fast schon demonstrativ: Das zweite Klingeln trifft mich wie ein Fehler im Takt. Erst das Summen der Server. Dann dieses nüchterne, helle Rattern im Ohr, das heißt: neues Ereignis. Ich warte nicht. Ich starre auf den Monitor. Die Liste scrollt, Zeilen wie Herzschläge. Neue Zeile. Neuer Notruf. Dieselbe Straße. Dieselbe Uhrzeit. Dieselbe Kennung.
Dieser Staccato-Rhythmus zieht sich durch den ganzen Text. Ein angewandtes Stilmuster, mehr aber nicht.
Ist es gewollt oder ein Zufall, dass mich der Name des fiktiven Autors Shapir Amurati an die indische Schriftstellerin Arundhati Roy erinnert? Eine Verbindung kann ich nicht erkennen. Das Textbeispiel kann mich jedenfalls nicht überzeugen.

Marc Elsberg: KI als Werkzeug, nicht als Autor

Überzeugender als die Selbstbeschreibungen der Software wirkt auf mich der Verweis auf den Thriller-Autor Marc Elsberg (Blackout, 2012; °C – Celsius, 2023). In einem Interview mit der ZEIT (August 2025) hatte er sich offen zur Nutzung von KI beim Schreiben geäussert – allerdings mit klaren Einschränkungen.
Elsberg nutzt KI als Recherche- und Hilfsmittel, nicht als Schreibmaschine. Für ihn ist KI ein fleißiger Praktikant, dem man ständig auf die Finger schauen muss. Sie sammelt Details zu Schauplätzen oder technischen Hintergründen, wofür früher Stunden nötig waren. Einen Roman schreiben zu lassen, hält er dagegen für illusorisch: In Wahrheit scheitert das Ding schon auf Seite eins. KI könne weder komplexe Plots entwickeln noch überzeugende Figuren gestalten.
Gerade diese nüchterne Einschätzung macht Elsberg als Referenz interessant. Er weist KI weder pauschal zurück noch erhebt er sie zur kreativen Instanz. Ihr Nutzen liegt im Vorfeld des Schreibens – nicht in der literarischen Entscheidung selbst. Selbst wenn das Gegenüber keine echte Person ist, sondern eine Simulation: Mein Versuch, zu erklären, was ich will, zwingt mich zugleich, präzise zu sein. Und manchmal bekomme ich sogar ganz gute oder witzige Antworten.
Literatur war immer ein Ort der Spekulation. Vielleicht stehen wir gerade an der Schwelle zu etwas völlig Neuem. Einer Transformation. Weg vom Menschen, wie wir ihn kennen – hin zu etwas, das wir noch nicht einmal denken können. Der Mensch war nie fertig.
(Auszüge aus dem Interview in der Zeit)

Paul Auster: 4-3-2-1 als literarisches Vorläufer-Experiment

Warum fällt mir im weiteren der Roman 4-3-2-1 von Paul Auster (†2024) ein?  Ganz sicher nicht KI-generiert,  er erschien 2017. Im Jahre 2005 schrieb Auster übrigens eine (weniger bekannte) Geschichte meiner Schreibmaschine,  keine Hermes 3000, sondern eine Olympia-Reiseschreibmaschine. Darin schreibt er: Seit jenem Tag im Jahre 1974 ist jedes Wort, das ich geschrieben habe, auf dieser Maschine getippt worden.
4-3-2-1 enthält vier Varianten eines Lebenslaufes des Protagonisten Archibald Ferguson.  Jede der Varianten ist historisch, sozial und politisch präzise in der dritten Generation von Einwanderern an der amerikanischen Ostküste der 50er bis zu den frühen 70er Jahren verankert.
Bei gleicher Ausgangslage wird deutlich, wie unterschiedlich sich ein Leben, die eigene Existenz entwickeln, oder auch plötzlich abbrechen kann. Der Roman ist ein Epos mit oft sehr langen, verschachtelten Sätzen, als eine historischer Panorama-Erzählung angelegt, in der die individuellen Erfahrungen eingebettet sind.
Am Ende offenbart Auster, dass Ferguson 4 die vorhergehenden drei Fergusons als fiktionale Versionen seines eigenen Lebens erfindet – ein Buch im Buch. Vor acht Jahren hatte ich die ca. 1250 Seiten in der Weihnachtswoche verschlungen.
Der literarische Entwurf dieser vier Lebensvarianten Fergusons wirkt heute wie ein Vorwegnehmen dessen, was aktuelle KI-Modelle technisch leisten können: die Generierung multipler, paralleler Realitäten aus einem gemeinsamen Ausgangspunkt. Aus der Kernfigur Archie Ferguson entfalten sich vier divergierende Lebensläufe – ähnlich wie KI aus einem Input eine Vielzahl möglicher Fortsetzungen erzeugen könnte.

Was Auster als monumentales literarisches Projekt über 1250 Seiten in mehreren Jahren realisierte, könnte eine KI theoretisch in Minuten generieren.  Vier Version desselben Lebens, gesteuert über algorithmische Regeln zu Zufällen und historischen Umständen.
Doch würde dabei auch entstehen, was Austers Roman auszeichnet? Die sprachliche Präzision, mit der sich Lebenswege verzweigen? Die historische Dichte, die jede Variante trägt? Die erzählerische Kraft, die den Leser in die Geschichte zieht?  Das was mit innerer Kohärenz der Geschichte gemeint ist, ist ein Ergebnis von Erfahrung, Urteil und künstlerischer Entscheidung.

Was ist literarische Qualität?

Schreiben heißt nicht nur, Texte zu produzieren. Es bedeutet, Ideen zu sammeln, zu recherchieren, sinnvoll und kreativ zu strukturieren und sie schliesslich in einem stimmigen Text zu verbinden.  Literarische Qualität bemisst sich an dem, was ein Text im Denken und Empfinden des Lesers auslöst. Ein guter Satz kann ansprechen wie ein erotischer Reiz. Er vermittelt nicht nur Bedeutung, sondern lässt den Moment spüren, bevor man sie (die Bedeutung) verstanden hat.
Literatur erhebt einen Authentizitätsanspruch. Sie beansprucht Singularität. Ein Teil davon ist Handwerk, dieses Handwerk lässt sich systematisieren, beschleunigen, auch durch KI unterstützen. Die Einzigartigkeit von Literatur liegt ihrer Unvorhersehbarkeit. Sie lebt von produktiven Brüchen, den Momenten, in denen ein Autor gegen die eigene Regel schreibt, weil die Szene es verlangt. KI kann Muster reproduzieren, aber nicht gegen sie verstoßen.

KI kann Vorschläge machen, Varianten generieren, Inkonsistenzen aufspüren – aber die Entscheidung, welcher Satz bleibt und welcher fällt, welche Szene verstärkt und welche gestrichen wird, kann nur der Autor treffen.

Hermes 3000 im Vergleich zu Sudowrite

Hermes 3000 ist gerade einmal drei Wochen alt, lässt sich so als Beta- Version bzw. Prototyp verstehen. Allerdings ist der Anspruch hoch, das Preismodell (Standard, Pro, Corporate) selbstbewusst. Es ist kein besseres Textverarbeitungssystem, sondern  ein Werkzeug zum Design von Narrativen. Aber ein Werkzeug, das den Plot strukturiert, schreibt noch keine Geschichte.

Zum Vergleich: Sudowrite, ein bereits etabliertes Tool für kreatives Schreiben, verfolgt einen bescheideneren Ansatz.  Auf Kindlepreneur, einer Plattform für Self-Publisher, heißt es in einer aktuellen Review: I’d never use Sudowrite to write a book for me. But it can help when I’m stuck. Das Tool positioniert sich als Assistenz-System, nicht als Autor-Ersatz.
Sudowrite positioniert sich als Assistenzsystem, nicht als Generator.  Mit Muse bietet Sudowrite ein speziell für Belletristik trainiertes Modell, das laut Reviews als the best model for natural sounding prose gilt. Zugleich wird  eingeräumt: The output requires editing to match your style. Reviews nennen  Schwächen, so ändern sich  Charakternamen mid-story. Möglich, das Hermes 3000 dem Modell von Sudowrite folgt. 

Fazit

Wo es um die schnelle Produktion großer Textmengen geht, wird sich generativer Text weiter ausbreiten – und hat es längst getan. KI-generierte Bücher sind bereits auf dem Markt. In bestimmten Genres mag das akzeptiert sein, dort, wo Quantität zählt und literarischer Anspruch gering ist. Das Problem ist nicht die Genre-Literatur an sich, sondern ihre industrielle Produktion. Sie wird zunehmend als Slop wahrgenommen – formal korrekt, aber ästhetisch leer.
Frage bleibt, wie sich Sprachmodelle so nutzen lassen, dass sie Arbeit erleichtern, kreative Prozesse unterstützen. KI ist in vielen Details nützlich, aber keine Instant-Lösung für komplexe Formate

Hermes 3000: https://hermes3000.ai/  Peter Neumann– Interview mit Marc Elsberg – : In Wahrheit scheitert das Ding auf Seite eins. Die ZEIT Nr. 33/2025. 8/25 -.Paul Auster: 4321..  1289 S. 2017. Jason Hamilton: Sudowrite Review: Is It the Best AI Tool for Writers in 2026? In: kindlepreneur.com 23.12.2025



KI als Intermediär – Plausible Konfabulation

KI als Intermediär – Plausible Konfabulation. Bild:

KI wird immer mehr zu einer kognitiven Infrastruktur, die in ganz unterschiedlichen Lebensbereichen genutzt wird. Sie automatisiert unzählige Vorgänge, vermittelt zwischen Wissenschaft und Öffentlichkeit, assistiert bei kreativer Arbeit und ist als alltägliche Instanz für Wissensfragen längst akzeptiert. Daneben wird mit ihr digitaler Schrott – sogenannter Slop – in erschreckend großen Mengen produziert.

Neulich in der Regionalbahn: Zwei Jugendliche, mitten im Gespräch, unsicher über die Richtigkeit einer Idee, zücken ihre Smartphones – Lass uns mal ChatGPT fragen. Nicht Google, nicht Wikipedia. Die Sprachmaschine ist zur Suchmaschine  geworden.  Ein einfaches Beispiel dafür, wie sehr sich die Nutzung von KI im Alltag verbreitet hat.

KI als vermittelnde Instanz

Ihre Funktion ist die eines Intermediärs. KI verbindet Nutzer mit einem Thesaurus aus Trainingsdaten – gesammeltem Wissen und kreativen Leistungen in Form von Texten, Bildern, Klängen, Code – grundsätzlich allem, was sich digital erfassen liess. Roberto Simanowski nennt sie Sprachmaschine. Sie zitiert nicht aus den Quellen, sie synthetisiert daraus
Der Thesaurus ist kein geordnetes Archiv, er ist ein qualitativ neues Datenreservoir, das sich bildlich als digitales Magma beschreiben lässt – eine aufgelöste Masse aus Texten, Bildern, Code, Meinungen, Fakten und Fiktionen, ohne Hierarchie, ohne Kuratierung.

Das digitale Magma: Woher stammen die Trainingsdaten?

Woher KI ihre Daten bezieht. Quelle: Semrush Study of 150.000 Citations, June 2025 – nach Klick in voller Auflsung auf neuer Seite

Woher KI ihre Antworten bezieht, zeigt eine Analyse von 150.000 KI-Zitationen (siehe Abb.): An erster Stelle steht Reddit (40,11%), gefolgt von Wikipedia (26,33%), YouTube (23,52%) und Google selbst (23,28%). Erst dann folgen Bewertungsplattformen wie Yelp, Amazon, Tripadvisor.  Was häufig zitiert wird, steigt nach oben. Was selten ist, versinkt.
Das digitale Magma ist nicht identisch mit dem öffentlich zugänglichen Web, aber es wird von ihm dominiert. Zwar fließen auch Wikipedia, wissenschaftliche Preprints, lizenzierte Nachrichtenarchive und – vermutlich illegal – Millionen urheberrechtlich geschützter Bücher, Bilder, Musikstücke in die Trainingsdaten. Doch allein das Volumen des Social Web übertrifft andere Quellen. Zusammengeschafft in gigantischen Web-Crawls – automatisierte Sammlungen von allem, was öffentlich zugänglich war. KI ist weniger ein Konzentrat des Weltwissens als eine Quintessenz des Social Web.

Der Unterschied zur Suchmaschine

Sprachmodelle verarbeiten statistische Muster, nicht Bedeutung, sie kennen keine Referenz ausserhalb ihrer statistischen Verteilungen.
Sie übersetzen Daten in natürliche Sprache,  KI wird zur vermittelnden Instanz, zum Intermediär von Wissen. Selber erzeugt sie kein Wissen und keine Erkenntnis, aber sie organisiert den Zugang zu den digitalen Wissensspeichern. Als Intermediär hat die KI also Einfluss darauf, was wir wahrnehmen und wie wir es verstehen.

Damit verschiebt sich etwas Grundlegendes. Suchmaschinen führten zu den Quellen – zu den Websites, Dokumenten, Publikationen, wo Wissen abrufbar war. Die Bewertung blieb den Nutzern selber überlassen. KI hingegen organisiert den Zugang nicht nach bibliothekarischen oder wissenschaftlichen Kriterien, sondern nach statistischer Wahrscheinlichkeit. Sie führt nicht zu Quellen, sondern produziert synthetische Plausibilität. Eine vermittelnde Instanz ohne Eigenstandpunkt, ohne Referenz außerhalb ihrer statistischen Verteilungen.

Plausible Konfabulation: Ein neuropsychologisches Bild

In der Neuropsychologie bezeichnet Konfabulation das schlüssige Erfinden von Zusammenhängen bei fehlendem Wissen, ohne Täuschungsabsicht. Der Patient mit Gedächtnislücken füllt diese nicht bewusst mit Lügen, sondern mit dem, was seinem Hirn plausibel erscheint. KI-Modelle operieren ähnlich: Sie sind darauf trainiert, plausible Fortsetzungen von Texten zu erzeugen. Was statistisch wahrscheinlich klingt, wird zur Antwort.
Der Begriff Plausible Konfabulation ist daher kein Zynismus, keine Polemik, sondern bildliche Beschreibung eines Funktionsprinzips. Und dieses Prinzip lässt sich, bewusst eingesetzt, produktiv nutzen.
Plausible Konfabulation erleichtert den Ausgriff auf spekulative Ideen, auf Möglichkeitsräume jenseits des bereits Gewussten. KI kann als Sparringspartner für Gedanken dienen. Sie füllt Lücken, kombiniert Muster neu, kann divergente Denkräume öffnen, die sich ohne sie vielleicht nicht geöffnet hätten. Sie liefert Input, Varianten, unerwartete Kombinationen – der Nutzer wählt aus, bewertet, verwirft, verfeinert.
Die Stärke liegt im Aufzeigen des Möglichen, nicht in der einzig richtigen Lösung. Assistenz bedeutet hier nicht Automatisierung, sondern digitales Lektorat – ein Gegenüber, das Vorschläge macht, ohne Entscheidungen zu erzwingen. Der Nutzer bleibt Instanz der Bewertung, die KI liefert Material.

Die Wirkung von Konfabulationen unterscheidet sich je nach Anwendungsbereich. In strukturierten, abgegrenzten Domänen kann KI durchaus verlässlich als Wissens-Intermediär fungieren: In juristischen Datenbanken mit definiertem Corpus von Rechtsprechung und Gesetzestexten, in medizinischen Fachdatenbanken mit kuratierten Studien, beim Coding mit formalen Systemen und eindeutigen Regeln. Dort, wo Fragen und Thesaurus präzise aufeinander abgestimmt sind, wo Retrieval-Augmented Generation (RAG) den Zugriff auf verifizierbare Quellen sichert, bleibt die Konfabulation eingegrenzt.

Bei der Generierung von Bild- und Toninhalten, generell bei fiktionalen Inhalten, stellt sich die Frage nach Wahrheit nicht. Dort geht es nicht um Erkenntnis, sondern um ästhetische Plausibilität – um Stil, Stimmigkeit, emotionale Wirkung.  Ein KI-generierter Roman muss nicht wahr sein, der Reiz generierter Bilder liegt oft gerade in ihrer physischen Unmöglichkeit.
Die Probleme sind andere, Urheberschaft, Originalität, die Frage, ob kreative Leistung ohne intentionale Struktur überhaupt als solche gelten kann.
Die Problematik – die Konfabulation von Fakten, die Vermischung von Wissen und Spekulation – betrifft primär den Einsatz von KI als Wissens-Intermediär: dort, wo sie Suchmaschinen ersetzt, wo sie Produktrecherchen durchführt, wo sie auf Fragen antwortet, bei denen ein Wahrheitsanspruch besteht.

Zero-Klick

Die Sprachmaschine lässt die Suchmaschine nicht verschwinden, aber hat sie verändert. Google als dominierende Suchmaschine ist nicht mehr nur ein Index, sondern hat sich durch KI-Übersichten (AI Overviews) selbst zu einer synthetisierenden Antwortmaschine entwickelt. Über 60% der Suchanfragen führen mittlerweile nicht mehr zu Klicks auf eine externe Website*.
Das bedeutet ein Ende der gewohnten Intermediarität im Netz, in der Suchmaschinen zu den Anbietern von – meist SEO-optimierten – Inhalten vermittelten. Nutzer geben sich stattdessen mit einer generierten Kurzfassung zufrieden. Zero-Klick-Recherchen entziehen den eigentlichen Urhebern dieser Inhalte die nötige Aufmerksamkeit und damit oft die wirtschaftliche Basis. Inhalte werden destilliert, ohne deren Produzenten zu kompensieren. 

Wie Nutzer KI  erleben: Einblicke aus 1250 Interviews

Vor gut einem Monat (5.12.2025) hat Anthropic, die Betreiberfirma der KI Claude Ergebnisse einer von KI-Agenten ausgeführten Studie online gestellt.  Insgesamt sind  1250  Interviewprotokolle zur Nutzung online verfügbar, Bereits der Einblick in eine kleine Auswahl macht deutlich, was funktioniert und was nicht.
KI funktioniert dort, wo strukturierte Aufgaben (Code, Lückentexte, Zusammenfassungen) mit klaren Anweisungen kombiniert werden. Sie scheitert, wo Ton, Stil, emotionale Intelligenz oder faktische Präzision gefordert sind.
Intentionalität ist der Knackpunkt. Menschen erwarten von KI, dass sie ihre Intention versteht und automatisiert umsetzt – so wie sie es von einem kompetenten Mitarbeiter erwarten würden. Genau das kann die KI nicht leisten. Sie hat keine Vorstellung davon, was gemeint ist, nur davon, was statistisch wahrscheinlich folgt.
Es ist nicht einmal ein rein technisches Problem. Das Verständnis der Intention und noch mehr die Ausführung in ihrem Sinne, zählt zu den höchsten Anforderungen in jeder Zusammenarbeit.
Die Erwartung, Aufgaben zu delegieren statt zu assistieren, führt systematisch zu Enttäuschungen.
In den gesichteten Interview-Beispiele finden sich durchweg Hinweise darauf. Die Texterin erhält konfabulierte Montessori-Beispiele, wenn es um Kindergärten geht. Der Architekt bekommt 100 Zeilen funktionierenden Code in kurzer Zeit – aber bei E-Mails wird der Ton nicht getroffen. Die Lehrerin generiert maßgeschneiderte Geschichten für Schüler, scheitert aber selbst beim KI-gestützten Französischlernen. Der Student lässt sich Fachbegriffe erklären, ist aber überzeugt, dass KI nie den emotionalen Vorteil eines menschlichen Arztes” ersetzen kann. Die KI liefert statistische Plausibilität, versteht aber nicht die Intention.

Kreative nutzen KI, um ihre Produktivität zu steigern, trotz der Kritik ihrer Kollegen und Zukunftsängsten. Sie müssen sich sowohl mit der unmittelbaren Stigmatisierung des KI-Einsatzes in kreativen Gemeinschaften als auch mit tieferliegenden Sorgen über wirtschaftliche Verdrängung und den Verlust der menschlichen kreativen Identität auseinandersetzen. **
Wissenschaftler wünschen sich eine Partnerschaft mit KI, vertrauen ihr aber noch nicht für die Grundlagenforschung. Sie äußerten einhellig den Wunsch nach KI, die Hypothesen generieren und Experimente entwerfen kann. Derzeit beschränken sie deren Einsatz jedoch auf Aufgaben wie das Verfassen von Manuskripten oder das Debuggen von Analysecode.**

Angemessenheit ist entscheidend

Der Nutzer bleibt verantwortlich für die Angemessenheit (Appropriateness) des KI-Einsatzes. KI kann nicht entscheiden, wann ihre Konfabulation produktiv ist (bei kreativer Exploration) und wann sie problematisch wird (bei Faktenfragen mit Wahrheitsanspruch). Die Urteilskraft muss beim Menschen bleiben – und setzt voraus, dass er erkennt, wann er es mit Konfabulation zu tun hat.

KI kann ein Werkzeug für divergentes Denken sein. Sie öffnet den Raum für multiple Lösungswege, generiert Varianten, zeigt Möglichkeiten. Die Konvergenz – die Entscheidung für eine Lösung, die Bewertung der Angemessenheit – bleibt Aufgabe des Menschen. Die Maschine exploriert, der Mensch entscheidet.
Strukturierung, Argumentation, Synthese – Kernaufgaben der Wissensarbeit – werden zunehmend zwischen Mensch und Maschine ko-produziert. Die Frage ist nicht mehr, ob KI Teil intellektueller Arbeit wird, sondern wie diese Ko-Produktion gestaltet werden soll – und wer die Kontrolle behält.

Wer die Sprachmaschine nutzt, produziert meist mehr, schneller, glatter. Wer sie nicht nutzt, gerät oft ins Hintertreffen. Und weil (fast) alle sie nutzen, steigt das Tempo weiter. Die Maschine setzt den Takt – der Mensch passt sich an. Nicht unbedingt Fortschritt, oft ein Doping-Effekt. Die versprochene Zeitersparnis mündet in höhere Erwartungen an Geschwindigkeit und Volumen.
Man sollte nicht vergessen, dass der Sinn kreativer Arbeit in ihrer Wirkung auf Menschen liegt. Wenn sie beim Leser, Betrachter, Hörer etwas auslöst, hat sie sich oft schon gelohnt. KI kann für viele Zwecke eingesetzt werden, aber wir sollten entscheiden können, wann und in welchem Sinne.
Keine  Technik ist unschuldig – und KI ist es auch nicht.

vgl.: . Carsten Brosda: Bevor die KI unsere Demokratie verschlingt FAZ. 3.01.26 – *Impact of Generative AI on Search Traffic and Content Visibility. In : beanstalkim.com März 25 – **Anthropic: Introducing Anthropic Interviewer: What 1,250 professionals told us about working with AI – vgl. auch. DocCheck Flexikon: Konfabulation.   Roberto Simanowski:   Sprachmaschinen – eine Philosophie der künstlichen Intelligenz . C.H. Beck 2025,  288 S.   (Rezension) – Klaus Burmeister: .Ein Selbstversuch zwischen kognitiver Bereicherung und stillem Verlust. LinkedIn 25.11.2025.



Vibe Shift und Resilienz … zur Bloggerkonferenz am 19. 12.

Die Hoffnung gibt sich nicht auf – eigenes Bild

Zum Jahresende treffen Call-for-Papers ein. Das Motto der re:publica 2026 setzt vorab  den Ton: Never gonna give you up. Es geht um Resilienz – Nicht aufgeben, Haltung zeigen und Räume zurückgewinnen, die verbinden.
Bis Mitte Januar bleibt noch Zeit einen Vorschlag einzureichen.

Bis zur Bloggerkonferenz sind es dagegen nur wenige Tage. Tech- Journalist Thomas Riedel lädt zum zweiten Mal ein. War es im letzten Jahr noch eine Bestandsaufnahme – Was ist die Zukunft des Bloggens und hat Bloggen eine Zukunftklingt es in diesem Jahr substantiell: Thema Hoffnung.

Mir fällt als erstes die Büchse der Pandora ein, aus der zuletzt die Hoffnung entweicht, nachdem sich die Plagen auf der Welt verbreitet hatten. Eine bescheidene Tugend, die Leid ertragen lässt, oft religiös verbrämt. Dort tritt sie im Trio auf: Glaube, Hoffnung, Liebe. Als Kind hatte ich es so gelernt – zusammen mit der Religion, die später vom Leben überlagert wurde.
Hoffnung ist wohl nicht die passende Haltung, eine passive Konnotation ist zu stark. Die Ereignisse des Jahres 2025  zeigen an, dass wir uns in einer historischen Phase von Umschichtungen befinden, in der Machtpositionen und Gewalt wieder verstärkt das Weltgeschehen bestimmen. 

  • Die Einschätzungen sind keine isolierten Erscheinungen. In seinem kürzlich erschienenen Buch Liebe!  Ein Aufruf ruft der Schriftsteller Daniel Schreiber zum aktiven Widerstand gegen eine Kultur des Hasses auf. Deren Rhetorik hat den politischen Diskurs gekapert. Unser Zusammenleben ist wieder von mehr Gewalt geprägt. Der rechte Rand hat es vollbracht, aus einem Wort zum guten Menschen – woke – ein Schimpfwort zu machen. Wie kann es gelingen, zu einer politischen Haltung zu finden, die dem sich ausbreitenden Klima des Hasses etwas entgegenzusetzen vermag?
    Der Soundtrack der Zeit hat sich verändert. Wir stehen in einer  grundlegenden Transformationsperiode, die mit neuartigen Verteilungskämpfen und beträchtlichem Wohlstandsverlust einhergeht.

Resilienz, Hoffnung, Liebe – das ist keine Flausch-Rhethorik zur Weihnachtszeit.  Eher eine Antwort auf das, was sich im vergangenen politischen Jahr so massiv verschärft hat. Ein kultureller Backlash hat politische und technologische Macht errungen. Ein Machtsystem wächst zusammen, das sich genau gegen das wendet, was in den letzten Jahrzehnten als gesellschaftlicher Fortschritt galt.

Vibe Shift – wieder ein neues Buzzword.  Ursprünglich waren subtile kulturelle Verschiebungen in Mode, Musik oder Lebensstil gemeint. Etwas, was Trends altern und neue aufkommen lässt.
Der Historiker Niall Ferguson – ein Trump-Unterstützer – deutete den Begriff um: Er meint damit den Richtungswechsel des Silicon Valley nach rechts. Tech-Eliten verbünden sich mit autoritärem Populismus. Machtzentren verschieben sich. Das Bewusstsein, nicht nur ein technologisches und ökonomisches, sondern auch politisches und kulturelles Machtzentrum zu sein, begünstigt eine imperiale Logik. Liberale Demokratie wird ausgehöhlt.

Diese Themen und die Diskussionen dazu haben das ganze Jahr 2025 bestimmt   – und sich auch in diesem Blog niedergeschlagen. Bevor ich sie nochmals zusammenfasse, verweise ich auf drei Texte:   
Tech- Faschismus – Ein Mash-Up als Machtsystem
 beschreibt, wie autoritärer Populismus und Tech-Oligarchie zusammenfinden.
Cyberlibertarianism
analysiert die ideologischen Wurzeln der Tech-Rechten – eine Ideologie, in der techno-utopische und marktradikale Ideen zu einer Fundamental-Opposition gegen jede gesellschaftliche Regulierung des Internet verwachsen.
Das politische Jahr 2025
blickt anhand prägender Bilder auf das gesamte Jahr zurück. 

In Deutschland (und Europa) gibt es keine einheimische Tech-Oligarchie. Der Rechtstrend der AfD ist nicht tech-libertär, sondern  völkisch-national.
Der Vibe Shift zeigt sich in einem Retro-Industrialismus, zu beobachten in Teilen der Union und in Wirtschaftsverbänden. Ein kultureller Rückwärtsgang, statt Zukunftsgewandtheit werden Ressentiments gegen Veränderung kultiviert, gegen die zweifache Transformation (auch twin transformation) – die gleichzeitige digitale und nachhaltige Erneuerung.

Macht man diesen Shift in Bildern fest, zeigt er sich etwa im Jubel des EVP-Vorsitzenden Manfred Weber, als er im Brüsseler Europaparlament mit seiner Fraktion das Aus vom Verbrenner-Aus  durchsetzte. Oder in der persönlichen Aggressivität, die Robert Habeck bei der Blockade der Fähre während der Bauernproteste vor einem Jahr entgegenschlug. Es war der Moment, in dem eine Mehrheit der Protestierenden den Übergriff von Rechtsradikalen duldete.

Ob uns das Buzzword Vibe Shift erhalten bleibt, ist zweitrangig. Erkennbar wird eine Verlagerung von Machtzentren, verbunden mit einer Erosion traditioneller Organisationen. Auch wenn das deutsche Parteiensystem im europäischen Vergleich noch stabil wirken mag – die Gewissheiten erodieren.

Welche Perspektiven birgt das Bloggen in dieser Gemengelage? Was an Hoffnung? Was an Widerstand gegen eine Kultur des Hasses? Was an demokratischer Resilienz?

Blogs sind Autoren-Medien, Owned Media ihre Stärke liegt darin, eigene Narrative zu setzen. Sie sind Inseln in einem algoritmisch gesteuerten Meer, Personenmarken inmitten von Slop, dem KI-generierten Müll,   alternativen Fakten und algorithmisch verstärkter Polarisierung.  Blogs verteidigen die Hoheit über unsere eigenen Geschichten.

Die erste Blüte der Blogs vor nun 20 Jahren fiel in die Zeit nach dem Scheitern des heute oft vergessenen Internet der Portale. Das Web 2.0. öffnete ein Freiheitsfenster und verstand sich basisdemokratisch.  Auch  die Re Publica hatte 2007 als  Bloggerkonferenz begonnen und wuchs in wenigen Jahren zu einer der wichtigsten deutschsprachigen Medienkonferenzen heran.

Blogger erwarben oft ein Vorsprungwissen darüber,  wie dieses Internet sozial und kulturell funktionierte. Sie entwickelten Kompetenz in neuen Feldern, die sich vermarkten liessen.  Online-Reputation,  Life-Streaming, Community-Management, Netnographie oder auch Spatial Realities sind solche Beispiele.

Es folgte die Begeisterung für Social Media – insbesondere Twitter. Doch die Plattformen sind nicht mehr neue Möglichkeiten, sondern faktische Monopole.

Gute Texte machen Arbeit. Und genau diese Arbeit, das Ringen und Entwickeln von Gedanken, statt das Generieren von Wahrscheinlichkeiten ist die dringend gebrauchte Resilienz.

Ein paar Fragen schliessen sich an:

Sind Blogs heute noch Orte öffentlicher Gegenmacht – oder faktisch Nischen für Gleichgesinnte?
Stellen wir Öffentlichkeit her – oder sind wir bloß Content-Zulieferer für Plattformlogiken?
Was ist unser realistischer Anspruch und wie setzen wir ihn um? z.B. Gewinn von Kooperationspartnern und Auftragebern?  Das Setzen von Narrativen? Brauchen wir Vernetzung bzw. findet sie überhaupt statt?



Sprachmaschinen – eine Philosophie der künstlichen Intelligenz – (Rez.)

Jede Technik hat die Macht, ihren ahnungslosen Nutzern die eigene Logik aufzudrängen – so beginnt es im Klappentext.  Zitierfähige Sätze und wirkungsvolle Sprachbilder gibt es zuhauf in  Sprachmaschinen – eine Philosophie der künstlichen Intelligenz von Roberto Simanowski.
Drei Jahre seit der Verbreitung von generativer KI tritt die Frage nach ihrer Wirkung auf unser Denken in den Vordergrund. Large Language Models wie ChatGPT, Claude, Gemini sind nicht mehr Zukunftstechnologie, sie durchdringen inzwischen die kognitiv-kreativen Bereiche unseres Alltags.
Roberto Simanowski ist Literatur- und Medienwissenschaftler, Medienphilosoph und Autor (Todesalgorithmus. Das Dilemma der künstlichen Intelligenz, 2020). Bereits 1999 war er Gründer von Dichtung-Digital, einem internationalen Online-Journal für Kunst und Kultur. Mit der digitalen Entwicklung und ihrer gesellschaftlichen und kulturellen Wirkung ist er somit bestens vertraut.
Simanowski analysiert einen alltäglichen Souveränitätstransfer zwischen Mensch und Maschine (17). Nach welchen Standards geschieht das? Was geht durch die Automatisierung verloren? Von ‘KI’ spricht er selten; sein zentraler Begriff, die Sprachmaschine, ist bewusst gewählt. Der Begriff markiert eine Algorithmisierung der Kommunikation.

Welche Art von Medium ist die Sprachmaschine? Simanowski beschreibt sie als eine globale Technologie, die als riesiger Umschlagplatz von Werten fungiert (156). Damit verbunden ist eine zentrale Konfliktfrage der Globalisierung: Gleicht diese Technologie die Kulturen einander an, indem sie allen die gleichen Werte vermittelt, oder gleicht sie sich selbst den jeweiligen Kulturen an?
Ihre Funktion ist die eines Intermediärs: Sie verbindet den Nutzer mit einem mit Trainingsdaten gefüllten Thesaurus, dem gesammelten Wissen und  kreativen Leistungen der Welt,  der alles enthält, was sie kriegen kann. Die Maschine zitiert nicht daraus, sondern arbeitet damit. Sie übersetzt Daten in natürliche Sprache, vermittelt zwischen Anfrage und generierter Ausgabe. Dabei produziert sie das, was statistisch am anschlussfähigsten erscheint.

Das große Versprechen der KI-Revolution ist die Automatisierung kognitiver und kreativer Prozesse – auf der Basis von Big Data und auf Bezahlbasis. Simanowski beschreibt die Nutzerlogik: Sie kaufen die Kompetenz, die sie nicht haben und auch nie so effektiv entwickeln könnten, wie es die Sprachmaschine tut (vgl. S. 58).

Die Basis all dessen ist das Training der Sprachmaschine mit möglichst vielen verfügbaren Daten, ein heftig umstrittenes Thema (vgl. Der Wert von Kultur- und Wissensarbeit im Zeitalter von KI).  Simanowskis Haltung dazu ist relativierend, was mich überrascht. Er verweist auf transformative Verwendung und das Fair-Use-Prinzip (S. 57), auf das sich Betreiber beim Training der Modelle berufen können. Den Widerstand von Autoren gegen die unentgeltliche Nutzung ihrer Werke, hält er für verständlich, aber für kontraproduktiv. Ihre Verweigerung senke lediglich die Standards der Sprachmaschinen-Outputs, während ihre Mitwirkung die Qualität heben würde (vgl. S. 59).

Simanowskis Argument beruht auf einer Analogie. Wir alle synthetisieren das, was wir geistig aufnehmen, und geben das Ergebnis – einen Text, ein Bild, einen Song – in die Welt zurück, unter unserem Namen und gegebenenfalls mit Urheberanspruch und finanziellem Interesse (S. 57). Wenn wir Texte schreiben, haben wir andere gelesen; wer malt, hat andere Bilder gesehen; wer komponiert, hat andere Musik gehört. Was Menschen daraus machen, fällt unterschiedlich aus – abhängig von Intention und Ambition. Oft bleibt es bei Reproduktion, manchmal entsteht etwas Neues, evtl. sogar Kunst.

Lässt sich diese Ebene individueller kreativer Synthese mit dem industriellen Ausmaß der KI-Konzerne vergleichen? Die Analogie verdeckt mehr, als sie erhellt. Tech-Konzerne privatisieren gratis gesammelte kulturelle Inhalte (Training) und monetarisieren anschließend die Abhängigkeit der Nutzer von den resultierenden Modellen (Bezahlung). Die Infrastruktur der kognitiven Automatisierung wird somit monopolisiert – ein Vorgang, der mit massiven Machtasymmetrien einhergeht.

Simanowski versteht sein Buch nicht als systematische Abhandlung, sondern als einen explorativen Denkprozess. Er selber nennt es vagabundierendes Denken. Es geht um Einsichten, aus denen sich etwas machen lässt, sein Antrieb ist intellektuelle Neugier (vgl. S. 43).
Die Sprachmaschine bestätigt ihn: Diesem Text geht es nicht um Bullet Points, sondern um Denkfiguren –  so das Urteil von ChatGPT über das Buch (S. 43).
Die politische Ebene wird zunächst ausgeblendet (vgl. Profil-Interview, Textauszug unten). Erst an späterer Stelle (188ff) werden politische Bezüge weiter ausgeführt. Politische  Gestaltungsmöglichkeiten werden nicht weiter behandelt – und sind wohl auch thematisch nicht vorgesehen. Simanowskis Absicht ist eine Erkundung, keine Agenda. Die Sprachmaschine erscheint so neutraler, als sie ist.

Die Exploration steht im Zeichen von fünf Fragen, die sich in den fünf Kapiteln des Buches entfalten. Damit entsteht zwar keine Systematik, aber eine Kartierung von Wirkungen der Sprachmaschine:  Was ändert sich, wenn der Sender des Textes eine Maschine ist ? Was geschieht, wenn Sprache nur noch als Statistik behandelt wird? Wer gibt der Sprachmaschine mit welchem Mandat welche Werte vor? Wie verändert sich die Souveränität des Menschen, wenn er sich einer Sprachmaschine bedient? Warum ist die Entwicklung der Sprachmaschine trotz ihrer Risiken unausweichlich? (40)
Autorenschaft
, Rechenfehler, Werte-Export, Entmündigungsschichten und Fortschrittsfalle sind die Titel der Kapitel und gleichzeitig die Felder der Explorationen. Sie knüpfen jeweils an Teildisziplinen der Philosophie an: Sprach-,  Erkenntnis-, Moral- und politische Philosophie, Geschichtsphilosophie.

Das Kapitel zur Autorenschaft  – Wen kümmert es, wer aus der Sprachmaschine spricht? führt in die sprachphilosophische Tradition. Simanowski reiht die Klassiker auf: Herders Sprache als Abdruck der Seele, Heideggers Die Sprache ist das Haus des Seins, Wittgensteins Die Grenzen meiner Sprache bedeuten die Grenzen meiner Welt. Diese Sätze sind mehr als blosse Referenzen – sie markieren eine fundamentale Einsicht. Sprache konstituiert Subjektivität, erschließt Welt, begrenzt und ermöglicht Denken. Wenn Sprache uns prägt und unsere Welt erschließt, dann ist die maschinelle Sprache nicht nur ein Werkzeug, sondern ein Hausfriedensbruch, der in unser Sein eindringt, um zu bleiben (17). 
Einen theoretischen Angelpunkt bildet Roland Barthes Essay Der Tod des Autors (1967), ein Schlüsseltext des Poststrukturalismus und der modernen Literaturtheorie.Simanowski fasst ihn so zusammen: Der Mensch ist nicht souveräner Eigentümer seiner Äusserungen. Vielmehr sind diese das Ergebnis der Diskurse, an denen er teilhat. Jeder Autor ist das, was er gelesen hat; er ist nicht die Quelle seiner Worte, sondern eine Art Mixer oder Durchlauferhitzer (50).
Die Sprachmaschine verschmilzt nicht nur einzelne gelesene Texte, sondern synthetisiert das gesamte verfügbare Textkorpus. Generiert sie damit einen Welttext (61) – eine universale, autorlose,  statistisch generierte Erzählung der Menschheit? KI-Texte können die perfekten Texte ohne Autor sein, reine statistische Reproduktion.

Das Kapitel Rechenfehlerdas mathematische Denken der Sprachmaschine knüpft an die Erkenntnisphilosophie an. Es geht um die Rechenprozesse hinter den Texten – ihre allmähliche Verfertigung beim Rechnen,  um den Vektorraum, in dem Token zueinander in Beziehung stehen. Die Anschlusswahrscheinlichkeit lässt sich regulieren und damit der Stil temperieren. Schliesslich auch um einen drohenden Kipppunkt: Wenn die Sprachmaschine zur Inzest-KI  (101) wird und nur noch solche Daten verarbeitet, die sie selbst bereits produziert hat – eine Endlosschleife statistischer Selbstreferenz.

Umfangreichstes Kapitel (109-184) ist Werte- Export – Die moralische Zweiterziehung der Sprachmaschine, mit Bezug zur Moralphilosophie. Hier geht es um den oben genannten Umschlagplatz von Werten, um die politisch-kulturellen Auseinandersetzungen  darüber, auf welche Wertvorstellungen das Trainingsmaterial der Sprachmaschine  ausgerichtet wird.
Export verweist auf die Dominanz eines Zentrums, das für universelle Werte steht – oder eben doch bloß für westliche Werte bzw. ihre Gegenpositionen. Es geht darum, welche sozialen Welten gespiegelt werden sollen – und wessen Normen als selbstverständlich gelten. Mit KI verstärkt sich die Hegemonie des Globalen Nordens: Technologische Dominanz sichert kulturellen und politischen Einfluss.
Was in den Trainingsdaten der Sprachmaschine vorherrscht, bestimmt  ihren Output,  und ist  das Abbild einer statistischen Realität.
Die moralische Zweiterziehung der Sprachmaschine ist derzeit Schauplatz eines politischen Kulturkampfes in den USA – zwischen Wokeness und ihren Gegnern. Auseinandersetzungen, die bis an die Stellschrauben des Finetunings und Post-Trainings reichen. Welches Alignment ist zulässig? Wie weit darf man den Output in erwünschte Richtungen lenken?
Es wird deutlich, dass wenige privatwirtschaftliche Unternehmen zentrale Kommunikationsmittel und Zugänge zu Wissen kontrollieren.

In Kapitel Entmündigungsgeschichtewenn die Sprachmaschine uns zu sehr zu Diensten ist kommen politische und kulturkritische Fragen zum Zuge. KI ist ein zentraler Faktor einer Machtverschiebung zwischen staatlichen und wirtschaftlichen Systemen – oder besser gesagt, zwischen öffentlich kontrollierten und gewinnorientierten Systemen.
Angesprochen werden die Gefahr von Oligarchien, aber auch der Erosion von menschlicher Urteilskraft und intellektuellen Autonomie durch die Auslagerung kognitiver Erfahrung: Das Gehirn bleibt immer mehr hinter dem zurück, was es ohne Sprachmaschinen leisten könnte(210) -Schliesslich auch das Wohlverhalten der K: Warum ist sie immer so nett?

Im letzten Kapitel Fortschrittsfalle geht es um die Unausweichlichkeit der Sprachmaschine, um eine Eigendynamik, der man sich kaum entziehen kann. Künstliche Intelligenz ist gleichzeitig Triumph und Kränkung menschlicher Schöpfungskraft  Technology happens because it is possible – einverstanden – aber wem gehört sie? 

Das Fazit des Autors: Wir brauchen Philosophische Medienkompetenz – Bild: unsplash+

Simanowskis Fazit zum Abschluss ist die Forderung nach einer spezifischen KI-Kompetenz (261ff), einer  Philosophischen Medienkompetenz, Eine Kompetenz, die über die  Nutzungskompetenz hinausgeht. Es muss eine Medienreflexionskompetenz sein, die es dem Nutzer ermöglicht, die Logik der Technik zu erkennen und für sich zu nutzen, und sich nicht von ihr beherrschen zu lassen.
An anderer Stelle nennt er KI als möglichen Auslöser eines neuen Digital Divide, als digitale Kluft – für die einen führt der Umgang mit ihr zur Verblödung, für die anderen wird es produktiv.

Das Buch hält das, was der Autor ankündigt – eine Exploration entlang von  Fragen. Er nennt es selber vagabundierendes Denken.  Mit den Fragen entsteht dann eben doch eine Art Systematik, zumindest Kartierung  der Wirkungen. So leistet das Buch einen wesentlichen Beitrag zur aktuellen Debatte.
Die Frage, ob KI  demokratische und professionelle Fähigkeiten stärkt oder untergräbt, treibt nicht nur Simanowski um. Seine Beobachtung einer erodierenden Souveränität, sogar kognitiven Verlusten, und der Monopolisierung von Wissenszugängen findet sich in vielen zeitgenössischen Beobachtungen wieder. Ein aktueller Essay des Zukunftsforschers Klaus Burmeister beschreibt dies als Selbstversuch zwischen kognitiver Bereicherung und stillem Verlust. Burmeisters Perspektive ergänzt Simanowskis philosophische Grundlegung – zeigt, dass diese Debatte weiter geführt wird.

Die teilweise Ausblendung der politischen Ebene hat mich zunächst irritiert. Die Diskussionen der vergangenen Monate waren von genau dieser Frage geprägt: den Effekten der Technologie selbst und den Machtstrukturen, die sie hervorbringt. Hier zeigen sich Parallelen zur Entwicklung der sozialen Medien: technische Innovation einerseits, oligarchische Infrastruktur andererseits. Dass Simanowski diese Ebene erst spät und knapp einbezieht, habe ich als Leerstelle empfunden. Sie erklärt sich aus seiner Absicht der Erkundung, nicht des Agenda-Setting – bleibt aber ein Thema, das in der öffentlichen Debatte weitergeführt werden muss.

Roberto Simanowski:   Sprachmaschinen – eine Philosophie der künstlichen Intelligen . C.H. Beck 2025,  288 S.  . Klaus Burmeister: .Ein Selbstversuch zwischen kognitiver Bereicherung und stillem Verlust. LinkedIn 25.11.2025.

zu *: In einem Interview mit der österreichischen Zeitschrift Profil erklärt Simanowski: ‘Wir können die Profitgier der Plattformen und Unternehmen geißeln und aufdecken. Das hat mich aber weniger interessiert, denn auch dahinter steckt eine gewisse Logik, der diese Konzerne selbst nicht entkommen.’ Die Alternative wäre, ‘das marktwirtschaftliche System in Frage zu stellen’ – doch die sei ‘vor 35 Jahren weggebrochen’. aus: Was die Maschinen sprechen: Roberto Simanowskis KI-Philosophie In:  Profil Nr 45/2025

 



SideMenu