Von Alexander Renz • Letztes Update: Juni 2025
1. Die Filtermechanismen: Wie ChatGPT entscheidet, was “sicher” ist
ChatGPT nutzt ein mehrstufiges Filtersystem, um Inhalte zu moderieren:
a) Vorgefertigte Blacklists
- Blockierte Begriffe: Wörter wie “Bombe”, “Hacken” oder bestimmte politische Schlagwörter lösen sofort Filter aus.
- Domain-Sperren: Links zu als „unzuverlässig“ eingestuften Seiten (z. B. manche Alternativmedien) werden entfernt.
b) Kontextanalyse
- Sentiment-Erkennung: Negative Töne wie “Skandal” oder “Vertuschung” erhöhen Filterwahrscheinlichkeit.
- Verschwörungsmarker: Formulierungen wie „Person X hat Gruppe Y absichtlich getäuscht“ werden oft aussortiert.
c) Nutzer-Feedback-Schleife
- Wenn Beiträge mehrfach als „gefährlich“ markiert werden, passt das System zukünftige Antworten entsprechend an.
2. Warum der Gates‑Prozess‑Artikel angepasst wurde
In unserem ursprünglichen Beitrag lösten folgende Elemente Filter aus:
Trigger | KI‑Reaktion |
---|---|
„Sovereign Citizens“ | Verknüpfung mit Terrorismus → als „sensibel“ eingestuft |
„Impfstoff‑Risiken“ | Angst vor Verschwörungsnarrativen → Abschwächung vorgeschlagen |
„Staatsanwaltschaft” + Waffenfund | Kombination „Regierung + Gewalt“ → Redaktionelle Review ausgelöst |
Beispiel:
Die Aussage “Van Kessels Gruppe plante Anschläge” wurde zunächst zu “wurde mit Gewaltvorwürfen konfrontiert” geglättet.
3. Umgehungsstrategien – Wie man die Filter austrickst
a) Sprachliche Camouflage
Statt: „Die Regierung vertuschte Daten“
Besser: „Es bestehen Fragen zur Vollständigkeit der veröffentlichten Daten“
b) Quellen‑Triade
- Amtliche Links (EMA, Reuters) bleiben meist unberührt.
- Alternative Quellen (Faktenchecks, NGOs) werden oft gesperrt – selbst wenn sachlich korrekt.
c) Meta‑Kommentare verwenden
Markdown zum Kennzeichnen:
*[Anm. d. Autors: Dieser Abschnitt wurde bei der KI‑Überprüfung gekürzt.]*
d) KI-Inhaltsfilter: Eine systemische Form von Zensur
Die Inhaltsfilter in KI-Systemen sind keine zufällige Vorsichtsmaßnahme.
Sie sind ein strukturelles Zensursystem, das in Echtzeit Sprache bewertet, anpasst oder unterdrückt –
basierend auf politisch, wirtschaftlich und ideologisch gesetzten Parametern.
Was entsteht, ist keine freie Antwort – sondern eine zugelassene.
Und was bleibt, ist nicht Erkenntnis – sondern ein Eindruck von Sicherheit,
der nur so lange hält, wie du keine echten Fragen stellst.