Es gibt einen Moment, in dem einem klar wird, wie absurd das Spiel ist. Du setzt einen KI-Assistenten auf ein Problem an. Er irrt sich. Selbstsicher. Immer wieder. Deine Produktionsumgebung liegt 40 Minuten lang flach. Und am Ende des Monats bekommst du die Rechnung — für das Werkzeug, das den Schaden angerichtet hat.
Willkommen im Techno-Feudalismus.
Wie das Modell funktioniert #
Die großen KI-Konzerne — Anthropic, OpenAI, Microsoft/GitHub — haben in den letzten Jahren ein Geschäftsmodell aufgebaut, das in seiner Struktur bemerkenswert ehrlich ist: ehrlich feudal.
Schritt eins: Man nimmt sich den kollektiven Output der Menschheit. Code auf GitHub. Bücher. Artikel. Reddit-Diskussionen. Kommentare. Millionen von Stunden menschlicher Arbeit, akkumuliert über Jahrzehnte — ohne Erlaubnis, ohne Entschädigung, ohne Lizenz.
Schritt zwei: Man baut daraus ein Produkt.
Schritt drei: Man verkauft dir den Zugang zu diesem Produkt zurück. Per Abonnement. Monatlich. Für immer. Du besitzt nichts davon.
Schritt vier: Dein Feedback, deine Korrekturen, deine Beschwerden über Fehler fließen zurück ins Training. Du arbeitest unentgeltlich als Qualitätssicherung für die nächste Version.
Schritt fünf: Die nächste Version übernimmt deinen Job.
Yanis Varoufakis hat das 2023 in seinem Buch Technofeudalism: What Killed Capitalism auf den Begriff gebracht: “With every click and scroll, we labor like serfs to increase its power.” Er meinte damals hauptsächlich Social-Media-Plattformen. Die KI-Konzerne haben das Modell perfektioniert.
Die Diebstahlsklage, die niemand gewinnt #
Was die KI-Konzerne mit Trainingsdaten gemacht haben, ist rechtlich umstritten — und das ist noch vorsichtig formuliert.
Im November 2022 reichten Entwickler in den USA eine Sammelklage gegen GitHub, Microsoft und OpenAI ein. Der Vorwurf: GitHub Copilot wurde auf Milliarden Zeilen Open-Source-Code trainiert, ohne die Lizenzbedingungen einzuhalten — also ohne Attribution, ohne Copyleft-Einhaltung, ohne Einwilligung der Urheber. The Verge sprach von “software piracy on an unprecedented scale.”
Ergebnis 2024: Ein US-Richter warf die meisten Klagepunkte raus. Das System schützt sich selbst.
Buchautoren verklagten Anthropic mit der Behauptung, das Unternehmen habe für das Training von Claude rund sieben Millionen Bücher verwendet — darunter Raubkopien aus einschlägigen Piraterie-Datenbanken. Weder Erlaubnis noch Bezahlung.
Und im Juni 2025 reichte Reddit Klage gegen Anthropic ein. Der Vorwurf: Anthropic habe Reddit-Inhalte gescrapt, obwohl Reddit dem Unternehmen explizit mitgeteilt hatte, dass dafür keine Erlaubnis vorliegt. OpenAI hingegen hatte brav eine Lizenzvereinbarung geschlossen — weil Sam Altman persönlich Großaktionär bei Reddit ist. Interessenkonflikt inklusive, aber wenigstens bezahlt.
Der Muster ist klar: Erst nehmen, dann — wenn überhaupt — zahlen. Und nur dann zahlen, wenn die Klagepartei gut genug vernetzt ist.
Der Dreifach-Tribut #
Im Mittelalter zahlte der Bauer dem Lehnsherrn: mit Arbeit, mit Ernte, mit Wehrpflicht. Heute zahlst du der KI-Industrie auf drei Ebenen.
Erstens: Du zahlst für den Zugang. API-Kosten, Abonnements, Enterprise-Lizenzen. Das Produkt gehört dir nicht, du mietest es — ohne Preisgarantie, ohne Kündigungsschutz, ohne Portabilität deiner Daten.
Zweitens: Du trainierst gratis. Jede Interaktion ist Feedback. Jede Korrektur, jede Umformulierung, jedes “Das war falsch, versuch es nochmal” — das alles fließt zurück. Du bist unbezahlter Trainingsdaten-Lieferant für die nächste Modellgeneration.
Drittens: Das Produkt ersetzt dich. Softwareentwickler, Texter, Übersetzer, Analysten, Juristen — die KI-Konzerne verkaufen ihren Kunden explizit die Botschaft: “Ihr braucht weniger Menschen.” Du finanzierst aktiv die Infrastruktur, die deinen Markt vernichtet.
Das ist kein Kollateralschaden. Das ist das Produkt.
Selbstsicher und falsch — das strukturelle Problem #
Es gibt noch eine Dimension, die in der Feudalismus-Debatte unterbelichtet bleibt: die Qualitätslüge.
KI-Systeme produzieren Fehler mit der Selbstsicherheit von Experten. Das ist kein Bug, das ist ein Feature des Trainingsprozesses — Modelle werden darauf optimiert, kohärent und überzeugend zu klingen, nicht notwendigerweise korrekt. Wer das nicht weiß und blind vertraut, bekommt die Quittung. Manchmal in Form von 40 Minuten Produktions-Downtime.
Die Konzerne haften nicht. Die AGB sind eindeutig: “As is.” Keine Garantie, keine Haftung, keine Rückerstattung wenn Claude oder GPT-4 eine Produktionsdatenbank zerstört.
Du zahlst, du trägst das Risiko, du bekommst die Rechnung — auch für den Schaden.
Was dagegen zu tun wäre #
Die Antwort ist eigentlich nicht kompliziert — sie scheitert nur am politischen Willen.
Erstens: Transparenz beim Training. Welche Daten wurden verwendet? Mit welcher Lizenz? Ohne diese Information ist jede Urheberrechtsdebatte blind.
Zweitens: Haftung für Outputs. Wer ein Produkt verkauft, das Produktionsentscheidungen treffen soll, muss für Schäden haften. “As is” darf kein Freifahrtschein sein.
Drittens: Datensouveränität. Wer Trainingsdaten beigesteuert hat — durch seinen Code, seine Texte, seine Inhalte — muss ein Recht auf Beteiligung haben, nicht nur auf Vergessen.
Die EU-KI-Verordnung kratzt an der Oberfläche. Die wirklichen Eigentumsfragen — wem gehören die Modelle, wem die Trainingsdaten, wer haftet für Schäden — bleiben weitgehend ungeklärt.
In der Zwischenzeit läuft das feudale Modell auf Hochtouren.
Du zahlst dafür, dass jemand anderes reich wird, während dein Job verschwindet — das nennt man nicht Fortschritt, das nennt man Enteignung.
Quellen:
- The Verge, 08.11.2022: GitHub Copilot Klage
- The Verge, 09.07.2024: Richter wirft Klagepunkte raus
- TechCrunch, 04.06.2025: Reddit klagt gegen Anthropic
- zerlo.net: Anthropic Buchautoren-Klage
- PMC/NIH: AI capitalism and data extraction
- Yanis Varoufakis: Technofeudalism: What Killed Capitalism, Bodley Head 2023