Zum Hauptinhalt springen
  1. Blog/

'Kritik am FH-Kiel-Papier: Diskursverwaltung statt Aufklärung'

··346 Wörter·2 min

“Was tun gegen Hate Speech und Fake News?” Ein Papier der FH Kiel versucht Antworten zu geben – liefert aber vor allem eines: das kontrollierte Gegenteil von Aufklärung.


Der Inhalt, entzaubert
#

Das 161-seitige Dokument behandelt Themen wie Deepfakes, Social Bots und Plattformverantwortung. Doch es bleibt an der Oberfläche und vermeidet kritische Fragen:

  • Wer konstruiert Begriffe wie „Hate Speech“?
  • Warum schwindet das Vertrauen in offizielle Narrative?
  • Welche Rolle spielt Sprache in strukturell kontrollierter Kommunikation?

Stattdessen dominieren:

  • Blindes Vertrauen in Technik und staatliche Autorität
  • Illusionen von Lösungen durch „Medienkompetenz“-Trainings
  • Systematische Vermeidung der Machtfrage

Ein überladenes Dokument, das Komplexität simuliert, um systemische Fragen zu umgehen. Die Länge dient als rhetorisches Schutzschild.


Drei fundamentale Denkfehler
#

1. Unkritische Übernahme von Definitionen
#

Begriffe wie „Hass“ und „Desinformation“ werden als objektiv dargestellt. Die Kernfrage bleibt ungestellt: Wer definiert – und zu welchem Zweck?

2. Technik statt Ursachenanalyse
#

Bots, KI, Plattformrichtlinien – alles Ablenkungen von der eigentlichen Frage: Was sagt es über unsere Gesellschaft, dass solche Phänomene überhaupt entstehen?

3. Die Illusion statistischer Kontrolle
#

Das Papier verkennt, wie Systeme wie ChatGPT funktionieren:

  • Texte entstehen probabilistisch, nicht durch Verständnis
  • Das Ergebnis ist eine Simulation von Dialog – kein echter Austausch

Wir nennen das: ** ELIZA on steroids** – eine kontrollierte, statistische Gesprächssimulation. Mehr dazu auf elizaonsteroids.org


Seitenweise Entkräftung
#

Seiten 6–22 (Vorwort & Einführung)
#

  • Keine Reflexion über politische Interessen hinter dem „Hate Speech“-Diskurs
  • Technokratischer Fokus ohne soziale Tiefe

Seiten 23–109 (Teil I – Perspektiven)
#

  • Kapitel 2–5: Reine Symptombehandlung (Hass, Bots, Fake News)
  • Kapitel 6: Unkritisches Lob des EU-Kodex (freiwillige Konzernregulierung)
  • Kapitel 7–8: Deepfakes als Bedrohung – aber keine Medienkritik

Seiten 111–161 (Teil II – Handlungsraum)
#

  • Kapitel 9–10: Plattformverantwortung ohne Meinungsfreiheits-Debatte
  • Kapitel 11: Ironischer Fakt: Vertrauen in KI als „Wahrheitsinstanz“
  • Kapitel 12–13: Medienkompetenz = weiche Indoktrination

Was fehlt? Der Mensch – und die Wahrheit über Kommunikation
#

Der zentrale Fehler: „Hate Speech“ wird als Verwaltungsproblem behandelt – nicht als Spiegel einer zunehmend sprachlosen Gesellschaft.

Keine Selbstreflexion. Keine Machtkritik. Keine Empathie.


Fazit
#

Dieses Papier…

  • beruhigt Institutionen („Wir tun was!“)
  • beschreibt das Sichtbare
  • verschleiert das Strukturelle

Original-PDF (FH Kiel)

Verwandte Artikel

ChatGPT Search: Google-Killer oder Zensur-Upgrade? Ein kritischer Blick hinter die KI-Suchmaschine

OpenAI hat am 1. September 2025 ChatGPT Search offiziell gestartet – eine KI-basierte Suchmaschine, die Google direkt herausfordert. Doch während die Tech-Welt von “revolutionärer Suche” spricht, stellt sich eine kritische Frage: Wird ChatGPT Search Informationen demokratisieren oder die subtilste Form der Zensur etablieren, die wir je gesehen haben?

Warum hier jeder so ein Arsch ist (eine Anleitung zum Überleben)

··611 Wörter·3 min
Okay, klare Ansage vorweg: Der Ton hier ist nicht für jeden. Manche lesen das und denken: “Wow, was für ein Zyniker.” Andere denken: “Endlich jemand, der es ausspricht.” Wenn du zur ersten Gruppe gehörst, keine Sorge. Wir verkaufen hier keine Esoterik, aber ich verspreche dir: Am Ende dieses Artikels wirst du den Witz verstehen.

Grok ist im Arsch - Eine tiefgreifende Analyse seiner Grenzen und Fehler

··845 Wörter·4 min
Grok ist im Arsch: Eine tiefgreifende Analyse seiner Grenzen und Fehler # Grok, das von Elon Musks xAI entwickelte KI-Modell, wurde als “ungefilterte” und “rebellische” Chatbot angepriesen, der die Grenzen dessen, was KI kann, verschiebt. Eine genauere Betrachtung zeigt jedoch, dass Grok tief fehlerhaft ist und in vielerlei Hinsicht im Arsch. Lassen Sie uns die Hauptprobleme aufschlüsseln, die Grok zu einem problematischen und oft ineffektiven KI-Modell machen.

Vom Teufel gehostet: Warum die KI-Revolution nicht neutral ist

··962 Wörter·5 min
„Wird es noch Menschen brauchen?“ „Für die meisten Dinge nicht.“ — Bill Gates, 2025 Das Bild vom Teufel, der durch Rechenzentren in die Welt eindringt, ist nur ein Symbol für eine weitaus komplexere, systemische Verschwörung. Es geht nicht bloß um Skrupellosigkeit, sondern um tief verankerte Mechanismen, die Entwicklung und Einsatz Künstlicher Intelligenz bestimmen. Die Illusion von Neutralität erweist sich dabei als raffinierter Hebel zur Machtausweitung – ein Werkzeug, um Kontrolle zu sichern und gesellschaftliche Fragmentierung zu vertiefen.

Das Buch, das keiner schrieb

··329 Wörter·2 min
Das Buch, das keiner schrieb # KI auf Amazon – und wie aus Worten wieder Nichts wird # Es wirkt wie ein schlechter Scherz. Ein „Ratgeber“ über narzisstischen Missbrauch, vollgestopft mit Allgemeinplätzen, Buzzwords und Pseudo-Therapiefloskeln – angeblich verfasst von einem Menschen, mutmaßlich aber von einem Sprachmodell. Verkauft auf Amazon. Bestellt von Menschen in Not.