Wir kennen dieses Muster #
Es gibt ein Drehbuch. Wir haben es in den letzten Jahren mehrfach gesehen. Es geht so: Eine Technologie wird als alternativlos präsentiert. Kritiker werden marginalisiert. Regulierer nicken ab. Und wenn die Öffentlichkeit aufwacht, ist die Infrastruktur längst gebaut.
Bei Corona hieß es: “Trust the Science.” Maßnahmen wurden im Eilverfahren durchgesetzt. Wer Fragen stellte, war Schwurbler. Die EMA liess Impfstoffe im Schnellverfahren zu – unter politischem Druck, nicht unter wissenschaftlichem. Die Pharma-Industrie schrieb die Regeln, die sie regulieren sollten.
Jetzt passiert dasselbe mit Künstlicher Intelligenz. Nur leiser. Und nachhaltiger.
Der EU AI Act: Schutz oder Feigenblatt? #
Im Februar 2025 traten die ersten Verbote des EU AI Act in Kraft. Social Scoring? Verboten. Biometrische Massenüberwachung in Echtzeit? Verboten. Emotionserkennung am Arbeitsplatz? Verboten. Klingt gut. Zu gut.
Denn die Ausnahmen sind das eigentliche Gesetz. Strafverfolgungsbehörden dürfen Echtzeit-Gesichtserkennung einsetzen – bei “schweren Straftaten” und mit richterlicher Genehmigung. Die nachträgliche biometrische Identifikation – also das Durchsuchen von Überwachungsaufnahmen nach dem Fakt – ist nicht verboten, sondern lediglich “hochriskant” eingestuft. Die Regeln dafür gelten erst ab Mitte 2026. Quelle: EDRi
Biometrische Verifizierung – also die Frage “Bist du, wer du behauptest zu sein?” – ist komplett ausgenommen. Das ist keine Lücke. Das ist eine Einladung. Quelle: ID-Pal
151 Millionen Euro kaufen keine Pizza #
Die Tech-Industrie gibt jährlich 151 Millionen Euro für Lobbyarbeit in Brüssel aus. Ein Anstieg von über 50 Prozent in vier Jahren. Meta allein investiert 10 Millionen Euro. Microsoft und Apple je 7 Millionen. Amazon, Apple, Google, Meta und Microsoft zusammen: über 35 Millionen Euro – nur für EU-Institutionen. Quelle: Corporate Europe Observatory
Im ersten Halbjahr 2025 gab es 378 Lobby-Treffen mit hochrangigen Kommissionsbeamten und EU-Abgeordneten. Das sind drei Treffen pro Arbeitstag. Das meistbesprochene Thema: Künstliche Intelligenz.
Und es geht weiter: Über 9 Millionen Euro fließen jährlich an Beratungsfirmen und Think Tanks wie Bruegel, CEPS und CERRE – die dann “unabhängige” Studien veröffentlichen, die zufällig die Position der Geldgeber stützen. Quelle: Euronews
Im Januar 2026 zeigte Corporate Europe Observatory, wie Big Tech Artikel für Artikel die Abschwächung der europäischen Digitalgesetzgebung geformt hat. Quelle: Corporate Europe Observatory
Das ist Regulatory Capture. Wort für Wort das gleiche Muster wie bei der Pharma-Industrie.
Palantir: Der stille Gast in deutschen Polizeibüros #
Palantir – ein US-Unternehmen, mitgegründet von Peter Thiel, großgeworden mit CIA-Aufträgen – ist längst in deutschen Polizeibehörden angekommen.
Bayern nutzt Palantirs Gotham seit 2024. Hessen seit 2017. Nordrhein-Westfalen seit 2019. Im März 2025 unterschrieb Baden-Württemberg einen Vertrag über 25 Millionen Euro. Das Bundesjustizministerium prüft den Einsatz auf Bundesebene. Quelle: The Local
Was Gotham macht: Es führt Datenbanken zusammen. Polizeiakten, Meldedaten, Kommunikationsdaten, soziale Netzwerke. Es erkennt “Muster”. Es sagt voraus, wer zum Problem werden könnte. Das ist kein Social Scoring – offiziell. Es läuft unter “Gefahrenabwehr”. Quelle: Lighthouse Reports
Der Unterschied zwischen Predictive Policing und Social Scoring ist ein Branding-Problem. Nicht ein technisches.
Clearview AI: 100 Millionen Euro Strafe, null Euro bezahlt #
Clearview AI hat über 30 Milliarden Gesichtsbilder aus dem Internet gesammelt. Ohne Zustimmung. Ohne Rechtsgrundlage. Europäische Datenschutzbehörden haben Strafen von insgesamt über 100 Millionen Euro verhängt – Frankreich, Griechenland, Italien, die Niederlande, Großbritannien.
Bezahlt hat Clearview keinen einzigen Cent. Quelle: We Are Solomon
Im Oktober 2025 reichte noyb eine Strafanzeige in Österreich ein – auf Basis von Artikel 84 der DSGVO, der strafrechtliche Konsequenzen ermöglicht. Denn Geldstrafen funktionieren nicht, wenn das Unternehmen sie einfach ignoriert. Quelle: The Register
Max Schrems bringt es auf den Punkt: “Clearview AI scheint EU-Grundrechte einfach zu ignorieren.”
Das ist keine Anomalie. Das ist das System.
Deepfakes: Das Ende der Beweisbarkeit #
Eine Großstudie mit 2.085 Teilnehmern zeigt: Gefälschte Videos verursachen erheblichen Reputationsschaden – unabhängig von der technischen Qualität. Selbst billige Fälschungen wirken. Journalistische Fakten-Checks können den Schaden reduzieren. Aber nur, wenn sie die Menschen erreichen. Quelle: Sage Journals
2023 kursierten rund eine halbe Million Deepfake-Videos in sozialen Medien. Bis 2025 werden es bis zu 8 Millionen sein. Im kanadischen Wahlkampf 2025 tauchten Deepfake-Clips auf, die wie echte CBC-Nachrichtenbeiträge aussahen. Quelle: Turing Institute
Wir nähern uns dem Punkt, an dem Video- und Audiobeweis nichts mehr bedeuten. Nicht weil alles gefälscht ist – sondern weil alles gefälscht sein könnte. Das ist der eigentliche Schaden. Es zerstört nicht die Wahrheit. Es zerstört das Vertrauen in Wahrheit.
Parallelen zu Corona: Dasselbe Drehbuch, neue Darsteller #
Die Muster sind identisch:
Eilverfahren statt Sorgfalt. Bei Corona wurde die reguläre Zulassungsdauer für Impfstoffe von Jahren auf Monate verkürzt. Beim AI Act werden Compliance-Richtlinien im Schnellverfahren erstellt – Stakeholder warnen, der Zeitplan sei zu kurz. Die Regeln für Hochrisiko-Systeme gelten erst ab August 2026. Bis dahin: freie Bahn.
Regulatory Capture. Pharma-Firmen saßen in den Gremien, die über ihre Produkte entschieden. Tech-Firmen haben 378 Treffen pro Halbjahr mit EU-Entscheidern. Eine peer-reviewte Studie von 2025 identifiziert KI-Sicherheit als “ein Feld mit enormem Potenzial für Regulatory Capture.” Quelle: Springer Nature
“Vertraue den Experten.” Bei Corona hieß es: Hinterfragt nicht. Bei KI heißt es: Ihr versteht die Technologie nicht. Beide Male dient das Argument dazu, demokratische Kontrolle auszuhebeln.
Machtkonzentration. Wenige Konzerne kontrollieren die Infrastruktur. Bei Corona waren es Pfizer, Moderna, BioNTech. Bei KI sind es Google, Meta, Microsoft, OpenAI. Die Rohstoffe haben sich geändert. Die Struktur nicht.
KI als Werkzeug der Gegenöffentlichkeit #
Und hier wird es differenziert. Denn KI ist nicht nur Werkzeug der Macht. Sie ist auch Werkzeug der Gegenmacht.
Dieser Blog ist ein Beispiel. Texte werden mit KI-Unterstützung recherchiert, strukturiert, gegengelesen. Nicht um menschliches Denken zu ersetzen – sondern um es zu verstärken. Ein einzelner Autor kann mit KI-Hilfe Recherchen durchführen, für die früher ein ganzes Redaktionsteam nötig war.
Open-Source-KI-Modelle ermöglicen es jedem, Überwachungssysteme zu analysieren, Lobby-Netzwerke zu kartieren, Muster in Gesetzgebungsprozessen zu erkennen. Die gleiche Technologie, die Clearview nutzt, um Gesichter zu katalogisieren, kann genutzt werden, um Clearviews Machenschaften aufzudecken.
Das ist kein Widerspruch. Das ist die Realität einer Dual-Use-Technologie. Die Frage ist nicht: KI ja oder nein? Die Frage ist: Wer kontrolliert sie?
Was jetzt passieren muss #
Keine Verbotsforderungen. Die bringen nichts. Stattdessen:
- Transparenzpflicht für Lobby-Treffen – nicht nur Anzahl, sondern Inhalte. Wer hat was gefordert?
- Durchsetzbare Strafen – wenn 100 Millionen Euro Bußgelder ignoriert werden können, existieren keine Bußgelder.
- Unabhängige Aufsicht – keine Gremien, in denen die Regulierten ihre eigene Regulierung schreiben.
- Open-Source-Verpflichtung für öffentlich eingesetzte KI-Systeme – wenn Palantir mit meinen Steuern bezahlt wird, will ich den Code sehen.
- Digitale Mündigkeit statt digitaler Abhängigkeit – KI-Kompetenz gehört in den Lehrplan, nicht als “Wie nutze ich ChatGPT”, sondern als “Wie erkenne ich, wenn KI gegen mich eingesetzt wird?”
Fazit #
Der EU AI Act ist besser als nichts. Aber er ist nicht gut genug. Die Lücken sind gewollt. Die Lobby hat ganze Arbeit geleistet. Und die Muster – Eilverfahren, Regulatory Capture, “Vertraue den Experten” – kennen wir.
Die Technologie selbst ist neutral. Die Machtstrukturen um sie herum sind es nicht. Wer das ignoriert, hat aus Corona nichts gelernt.
KI wird nicht verschwinden. Die Frage ist nur, ob wir sie kontrollieren – oder sie uns.
Wer heute nicht versteht, wie KI funktioniert, wird morgen nicht verstehen, warum er keine Rechte mehr hat.