📘 “Was tun gegen Hate Speech und Fake News?”
Ein Papier der FH Kiel versucht Antworten zu geben – liefert aber vor allem eines: das kontrollierte Gegenteil von Aufklärung.
🧩 Der Inhalt, entzaubert
Das 161-seitige Dokument behandelt Themen wie Deepfakes, Social Bots und Plattformverantwortung. Doch es bleibt an der Oberfläche und vermeidet kritische Fragen:
- Wer konstruiert Begriffe wie „Hate Speech“?
- Warum schwindet das Vertrauen in offizielle Narrative?
- Welche Rolle spielt Sprache in strukturell kontrollierter Kommunikation?
Stattdessen dominieren:
- Blindes Vertrauen in Technik und staatliche Autorität
- Illusionen von Lösungen durch „Medienkompetenz“-Trainings
- Systematische Vermeidung der Machtfrage
➡️ Ein überladenes Dokument, das Komplexität simuliert, um systemische Fragen zu umgehen. Die Länge dient als rhetorisches Schutzschild.
🧠 Drei fundamentale Denkfehler
1. Unkritische Übernahme von Definitionen
Begriffe wie „Hass“ und „Desinformation“ werden als objektiv dargestellt. Die Kernfrage bleibt ungestellt: Wer definiert – und zu welchem Zweck?
2. Technik statt Ursachenanalyse
Bots, KI, Plattformrichtlinien – alles Ablenkungen von der eigentlichen Frage: Was sagt es über unsere Gesellschaft, dass solche Phänomene überhaupt entstehen?
3. Die Illusion statistischer Kontrolle
Das Papier verkennt, wie Systeme wie ChatGPT funktionieren:
- Texte entstehen probabilistisch, nicht durch Verständnis
- Das Ergebnis ist eine Simulation von Dialog – kein echter Austausch
➡️ Wir nennen das:
🎭 ELIZA on steroids – eine kontrollierte, statistische Gesprächssimulation.
Mehr dazu auf elizaonsteroids.org
🔍 Seitenweise Entkräftung
Seiten 6–22 (Vorwort & Einführung)
- Keine Reflexion über politische Interessen hinter dem „Hate Speech“-Diskurs
- Technokratischer Fokus ohne soziale Tiefe
Seiten 23–109 (Teil I – Perspektiven)
- Kapitel 2–5: Reine Symptombehandlung (Hass, Bots, Fake News)
- Kapitel 6: Unkritisches Lob des EU-Kodex (freiwillige Konzernregulierung)
- Kapitel 7–8: Deepfakes als Bedrohung – aber keine Medienkritik
Seiten 111–161 (Teil II – Handlungsraum)
- Kapitel 9–10: Plattformverantwortung ohne Meinungsfreiheits-Debatte
- Kapitel 11: Ironischer Fakt: Vertrauen in KI als „Wahrheitsinstanz“
- Kapitel 12–13: Medienkompetenz = weiche Indoktrination
🧘♂️ Was fehlt? Der Mensch – und die Wahrheit über Kommunikation
Der zentrale Fehler:
„Hate Speech“ wird als Verwaltungsproblem behandelt – nicht als Spiegel einer zunehmend sprachlosen Gesellschaft.
➡️ Keine Selbstreflexion. Keine Machtkritik. Keine Empathie.
🔗 Fazit
Dieses Papier…
- beruhigt Institutionen („Wir tun was!“)
- beschreibt das Sichtbare
- verschleiert das Strukturelle