🧠 Was ist „KI“ wirklich?
Der Begriff „Künstliche Intelligenz“ suggeriert Denkfähigkeit, Bewusstsein und Verstehen. Doch Modelle wie GPT sind lediglich statistische Mustervervollständiger – sie verstehen nichts.
Statistik ≠ Denken
GPT wählt das nächste Wort nicht, weil es passt, sondern weil es wahrscheinlich ist. Was dabei entsteht, ist sprachliche Oberfläche ohne Tiefe – überzeugend, aber leer.
🧩 ELIZA vs. GPT – Symbolmanipulation in großem Maßstab
Sowohl ELIZA (1966) als auch GPT-4 (2023) basieren auf Symbolverarbeitung ohne Bedeutung. Die Illusion entsteht durch plausible Sprache – nicht durch Verständnis.
ELIZA – Regex mit Wirkung
(IF (MATCH "Ich fühle *" input)
(OUTPUT "Wie lange fühlst du * ?"))
ELIZA benutzte einfache Textmuster, um Gesprächsillusionen zu erzeugen. Doch bereits damals schrieben Menschen ihr emotionale Tiefe zu – völlig unbegründet.
GPT – Wahrscheinlichkeitsmaschine in XXL
{"input": "I feel sad today", "output": "I'm sorry to hear that. Do you want to talk about it?"}
GPT wirkt einfühlsam, weil es so klingt. Doch es „weiß“ nicht, was Traurigkeit ist – es kennt nur Textmuster, die statistisch folgen könnten.
🎭 Beispiele für Täuschung durch Sprache
Bewerbungsschreiben
GPT erstellt ein perfektes Anschreiben – mit Motiv, Stärken, Soft Skills. Aber: Weder das Motiv ist echt, noch kennt das System die Person.
Wissenschaftliche Zitate
GPT generiert Quellen, die nicht existieren – aber wie echte Paper klingen. Das nennt sich „Halluzination“, ist aber in Wahrheit frei erfundener Inhalt.
Emotionales Chatten
Replika & Co. simulieren Zuneigung, Verständnis, Liebe – auf Knopfdruck. Menschen bauen Beziehungen auf – mit einem Modell, das keine führen kann.
🧠 Kritische Stimmen zur KI-Entwicklung
⚖️ Timnit Gebru: Strukturelle Veränderungen für ethische KI
Timnit Gebru fordert strukturelle Veränderungen und mahnt ethische Verantwortung an. Sie plädiert für Beteiligung marginalisierter Gruppen und warnt vor einem blinden KI-Hype. Mehr lesen →
🛑 Gary Marcus: Regulierung gegen KI-Hype
Gary Marcus fordert strenge staatliche Aufsicht und kritisiert das fehlende Weltwissen heutiger KI-Modelle. Ohne Regulierung, so Marcus, werde Desinformation zum Standard. Mehr lesen →
🔍 Meredith Whittaker: KI als Produkt des Überwachungskapitalismus
Meredith Whittaker sieht KI als logische Folge von Datenausbeutung im Plattformkapitalismus.
Sie fordert strukturellen Wandel und Widerstand gegen Tech-Monopole.
Mehr lesen →
⚖️ Sandra Wachter: Recht auf Erklärbarkeit und Transparenz
Sandra Wachter kritisiert, dass es in Europa kein echtes Recht auf KI-Erklärbarkeit gibt. Sie schlägt „kontrafaktische Erklärungen“ vor – und fordert gerechte Systeme, nicht nur transparente. Mehr lesen →
⚠️ Was bedeutet das für uns?
- Wir verwechseln stilistische Kohärenz mit Wahrheit.
- Wir projizieren Verstehen, wo nur Statistik ist.
- Wir delegieren Verantwortung an Systeme ohne Bewusstsein.
Wenn eine Maschine überzeugend wirkt, glauben wir, sie sei intelligent. Doch Überzeugungskraft ist keine Intelligenz – sie ist nur Stil.
📚 Weiterführende Quellen
- Joseph Weizenbaum – Computer Power and Human Reason (1976)
- Emily Bender et al. – On the Dangers of Stochastic Parrots (2021)
- 99% Invisible – The ELIZA Effect
- Gary Marcus – Rebooting AI (2019)
- Wired – IBM Watson empfahl gefährliche Therapien
- The Guardian – Microsoft löscht Tay-Bot nach rassistischen Tweets
🧾 Fazit
GPT ist nicht klug. Es ist gut darin, so zu tun.
Wir stehen nicht vor echter Intelligenz – sondern vor einem rhetorischen Spiegel. Und wenn wir anfangen, diesem Spiegel zu vertrauen, verlieren wir die Unterscheidung zwischen Inhalt und Illusion.
Verstehen braucht mehr als Syntax. Es braucht Bewusstsein.