Oder: Warum der Verlag der Zukunft kein Verlag mehr ist
Eine Live-Demonstration#
Gestern Nacht, 22:55 Uhr. Ein WhatsApp-Chat über Akademikertypen mit einem Freund, Medienwissenschaftler an einem DFG-Sonderforschungsbereich. Er hatte vor Jahren eine Typologie entwickelt: Schwiegersöhne, Fleißliesen, Pflegefälle, Nerds. Dysfunktionale RPG-Party des akademischen Prekariats.
Ich fragte: “Welcher Typ profitiert am meisten von Systemen wie Phronesis?”
Eine Stunde später war die Analyse fertig. Nicht als Notiz. Als publizierter Text mit Permalink:
Agentic AI und das Dramatis Personae des akademischen Prekariats
Seine Reaktion am nächsten Morgen: “Geil, wahrscheinlich sehr zutreffend.”
Meine Antwort: “Der Punkt ist gar nicht der Inhalt. Der Punkt ist, dass man aus Chats komplette Publikations-Workflows bauen kann und das läuft alles über dieselbe CI/CD-Pipeline.”
Der traditionelle Weg#
So funktioniert akademisches Publizieren seit Jahrzehnten:
Gespräch/Idee
↓
Notizen (Tage)
↓
Entwurf (Wochen)
↓
Überarbeitung (Wochen)
↓
Einreichung (Monate Wartezeit)
↓
Peer Review (Monate)
↓
Revision (Wochen)
↓
Lektorat (Wochen)
↓
Satz/Layout (Wochen)
↓
Publikation
↓
DOI-Registrierung
= 12-24 Monate
= Mehrere Personen
= Mehrere Tools
= Dutzende Übergaben
= Hunderte E-MailsDas ist nicht Qualitätssicherung. Das ist historisch gewachsene Ineffizienz, die sich als Qualitätssicherung tarnt.
Der Phronesis-Weg#
Chat (WhatsApp/Signal/Phronesis)
↓
"Mach einen Text draus"
↓
Phronesis generiert strukturierte Analyse
↓
Markdown mit Metadaten
↓
Git Commit
↓
CI/CD Pipeline
├── Blog-Deployment
├── PDF-Generierung
├── DOI-Registrierung
├── RSS-Feed
├── OpenGraph Cards
└── Archivierung (Zenodo/ORCID)
↓
LIVE + ZITIERFÄHIG + ARCHIVIERT
= Stunden
= Eine Person
= Eine Pipeline
= Null Übergaben
= Null E-MailsWas hier eigentlich passiert#
Es geht nicht darum, dass “KI Texte schreibt”. Das ist die oberflächliche Lesart.
Es geht darum, dass die gesamte Wertschöpfungskette in eine einzige Pipeline kollabiert.
Derselbe Stack, der Code deployed, deployed auch den Blog. Derselbe Prozess, der eine Analyse generiert, registriert auch den DOI. Es gibt keinen Medienbruch mehr zwischen Denken und Publizieren.
Das ist nicht Automatisierung im Sinne von “schneller tippen”. Das ist die Auflösung der Kategorie “Publikationsprozess” als eigenständiger Arbeitsschritt.
Die Implikationen für Verlage#
Die Frage, die sich Verlage stellen, lautet meist: “Wie können wir unsere Backlist mit KI monetarisieren? Chat with Freud’s Gesammelte Werke?”
Das ist die falsche Frage. Es ist die Frage eines Kutschers, der sich überlegt, wie er Pferde effizienter füttern kann, während draußen das erste Auto vorbeifährt.
Die richtige Frage lautet: Was ist die Funktion eines Verlags, wenn die gesamte Produktionskette automatisierbar ist?
Was ein Verlag traditionell tut:
- Auswahl (Gatekeeping)
- Finanzierung (Vorschuss, Produktion)
- Produktion (Lektorat, Satz, Druck)
- Distribution (Buchhandel, Vertrieb)
- Marketing (Pressearbeit, Lesungen)
- Legitimation (Marke, Reputation)
Was davon nicht automatisierbar ist:
- Auswahl (teilweise - Kuration bleibt menschlich)
- Legitimation (Reputation ist sozial konstruiert)
- Netzwerk (Beziehungen zu Medien, Buchhandel)
Was davon bereits jetzt automatisierbar ist:
- Produktion (komplett)
- Distribution (größtenteils)
- Marketing (größtenteils)
Ein Verlag der Zukunft ist kein Produktionsunternehmen. Er ist eine Reputationsagentur mit Netzwerk.
Das invertierte Machtverhältnis#
Traditionell: Autor bittet Verlag um Aufnahme ins Programm. Verlag entscheidet. Autor wartet.
Mit einer Phronesis-Pipeline:
- Autor schreibt - im Gespräch, iterativ, mit KI-Unterstützung
- Autor publiziert - auf eigenem Blog, mit DOI, zitierfähig
- Autor baut Reichweite - der Text existiert, wird gelesen, zitiert
- Autor geht zum Verlag - mit fertiger Sichtbarkeit: “Das Buch existiert schon, es hat Leser, hier sind die Zahlen. Wollt ihr die Print-Rechte?”
Der Verlag wird vom Gatekeeper zum Service-Provider für die letzte Meile: Print-Produktion, Buchhandelszugang, Feuilleton-Kontakte.
Das ist keine Dystopie für Verlage. Es ist eine Chance - wenn sie verstehen, dass ihr Wert nicht in der Produktion liegt, sondern in der Kuration und im Netzwerk.
Ein konkretes Beispiel#
Mein Freund, der Medienwissenschaftler, überlegt, ein Buch zu schreiben. Thema: Die Zukunft der Universität unter den Bedingungen von KI. Ziel: 50.000 verkaufte Exemplare.
Der traditionelle Weg:
- Exposé schreiben (Wochen)
- An Verlage schicken (Monate Wartezeit)
- Vertrag verhandeln (Monate)
- Schreiben (Jahr)
- Lektorat, Produktion (Monate)
- Erscheinung in 2-3 Jahren
Der Phronesis-Weg:
- Unsere WhatsApp-Chats der letzten Jahre → Phronesis
- Seine Vorarbeiten (Florenz-Konferenz) → Phronesis
- “Mach Buchstruktur draus”
- Iterieren im Gespräch
- Kapitel als Blog-Posts publizieren (mit DOI)
- Reichweite und Zitationen aufbauen
- Mit Zahlen zum Verlag gehen
- Print-Version in Monaten, nicht Jahren
Das wäre nicht nur ein Buch über die Transformation der Wissensarbeit. Es wäre ein Buch, das diese Transformation performt.
Die technische Realität#
Was braucht man für eine solche Pipeline?
KOMPONENTEN:
1. Phronesis/LLM-Backend
- Textgenerierung aus Gesprächen
- Strukturierung und Formatierung
- Metadaten-Generierung
2. Git-Repository
- Versionskontrolle
- Markdown-Dateien
- Automatische Commits
3. CI/CD-Pipeline (GitHub Actions, GitLab CI, etc.)
- Build-Prozess bei jedem Commit
- Deployment auf Webserver
- PDF-Generierung (Pandoc, LaTeX)
4. DOI-Registrierung
- DataCite API
- Automatische Registrierung bei Publikation
- Metadaten-Übermittlung
5. Archivierung
- Zenodo-Integration
- ORCID-Verknüpfung
- Langzeitarchivierung
6. Distribution
- RSS-Feed
- OpenGraph-Tags für Social Media
- Optional: Newsletter-IntegrationAlles davon existiert. Alles davon ist integrierbar. Die meisten Komponenten sind Open Source.
Die technische Hürde ist nicht hoch. Die konzeptuelle Hürde - zu verstehen, dass Publikation kein Ereignis mehr ist, sondern ein Commit - ist höher.
Was das für “Qualität” bedeutet#
Der offensichtliche Einwand: “Aber was ist mit Qualitätssicherung? Peer Review? Lektorat?”
Die Gegenfrage: Was genau sichert das aktuelle System?
- Peer Review dauert Monate und ist nachweislich unzuverlässig (Reproducibility Crisis)
- Lektorat bei akademischen Verlagen ist oft minimal
- Qualität wird durch Reputation des Journals/Verlags proxied, nicht durch tatsächliche Prüfung
Eine Phronesis-Pipeline kann Qualitätssicherung einbauen:
- Automatische Faktenprüfung gegen Quellen
- Konsistenzprüfung der Argumentation
- Iterative Überarbeitung im Dialog
- Offene Kommentierung nach Publikation
Das ist nicht weniger Qualitätssicherung. Es ist andere Qualitätssicherung - schneller, transparenter, iterativer.
Und: Der Text existiert. Er kann kritisiert, korrigiert, verbessert werden. Er wartet nicht 18 Monate in einer Review-Schleife, während die Welt sich weiterdreht.
Die Pointe#
Der Text über das “Dramatis Personae des akademischen Prekariats” ist gut. Er analysiert präzise, was mit Fleißliesen, Pflegefällen und Nerds passiert, wenn Agentic AI in die Universität einzieht.
Aber der Text ist nicht die Pointe.
Die Pointe ist: Er existiert, weil ein WhatsApp-Chat um 22:55 Uhr durch eine Pipeline lief und um 23:30 Uhr mit Permalink online war.
Die Pointe ist: Es gibt keinen Medienbruch mehr zwischen Denken und Publizieren.
Die Pointe ist: Das hier ist kein Manifest. Es ist eine funktionierende Implementierung.
Und die Frage ist nicht, ob das die akademische Publikationslandschaft verändert. Die Frage ist, wer es zuerst versteht.
Geschrieben in Phronesis, publiziert via CI/CD-Pipeline.