‘ELIZA auf Steroiden: Warum GPT keine Intelligenz ist’
GPT und ähnliche Modelle simulieren Verständigkeit. Sie imitieren Gesprächsverläufe, Emotionen, Argumentation. Doch tatsächlich handelt es sich um statistische Wahrscheinlichkeitsmodelle, die auf riesigen Textmengen trainiert wurden – ohne Bewusstsein, ohne Weltwissen, ohne Intention.
Was tut GPT wirklich?#
GPT (Generative Pretrained Transformer) ist kein denkendes System, sondern ein Sprachvorhersagemodell. Es berechnet, welches Token (Wortbruchstück) mit höchster Wahrscheinlichkeit als nächstes kommen sollte – basierend auf dem Kontext vorheriger Tokens.
GPT doesn’t know. It just continues. – Emily Bender, Linguistin und KI-Kritikerin
Kein Verstehen. Kein Denken. Keine Absicht.#
GPTs Training besteht darin, Textdaten zu verarbeiten – oft aus dem Internet, aus Büchern, Foren, Wikipedia. Daraus lernt es statistische Muster. Aber: GPT hat kein mentales Modell der Welt, keine Ziele, keine Erfahrungen, kein Ich.
Es unterscheidet nicht zwischen Wahrheit und Fiktion, zwischen Zitat und Halluzination. Alles ist gleich wahrscheinlich, solange es sprachlich kohärent wirkt.
Der „ELIZA-Effekt“ 2.0#
Bereits 1966 projizierten Menschen tiefes Verständnis in ELIZA – obwohl sie nur Regex-Antworten spiegelte. Heute projizieren wir Bewusstsein in GPT – obwohl es nur rechnet.
„Menschen reagieren auf GPT, als würde es denken – weil es spricht wie wir. Nicht weil es denkt wie wir.“ – Sherry Turkle, MIT
Illusion statt Intelligenz#
GPT beeindruckt – aber es denkt nicht. Es kann Texte erzeugen, aber keine Konzepte entwickeln. Es kann so tun, als führe es ein Streitgespräch – aber hat keine Position. Es kann Emotionen nachahmen – aber fühlt nichts.
Das nennt man: syntaktische Kompetenz ohne semantisches Verständnis.
Belege und Quellen#
- Emily Bender et al.: On the Dangers of Stochastic Parrots (2021) https://dl.acm.org/doi/10.1145/3442188.3445922
- Sherry Turkle: The Second Self (1984), Alone Together (2011)
- Joseph Weizenbaum: Computer Power and Human Reason (1976)
- Gary Marcus: Rebooting AI (2019)
- 99% Invisible Podcast: The ELIZA Effect
Fazit#
GPT ist keine Intelligenz. Es ist die Illusion von Intelligenz, perfektioniert durch Sprachmuster und riesige Datenmengen. Nicht die Maschine täuscht – wir lassen uns täuschen.
GPT „funktioniert“ – nicht weil es versteht, sondern weil wir Verstehen imitierbar gemacht haben.
Erweiterung: Die Gefahren der stochastischen Papageien#
Der treffende Begriff „stochastische Papageien", den Emily Bender und ihre Co-Autorinnen in ihrer bahnbrechenden Arbeit prägnant prägten, fasst das Dilemma zusammen: GPT und ähnliche Modelle produzieren Sprache, ohne sie zu verstehen – sie wiederholen lediglich statistische Muster aus ihren Trainingsdaten, ähnlich wie ein Papagei, der Worte nachplappert, ohne ihre Bedeutung zu begreifen. Doch diese Nachahmung ist kein harmloses Kunststück. Der Abstraktion fehlt jede mentale Repräsentation, jedes Weltwissen und jede Fähigkeit, zwischen Wahrheit und Fiktion zu unterscheiden. Das Modell generiert Text, der sprachlich kohärent wirkt, semantisch aber leer ist.
Die versteckten Kosten der Größe#
Die Entwicklung immer größerer Modelle hat nicht nur technische, sondern tiefgreifende ethische und ökologische Konsequenzen. Wie Bender et al. aufzeigen, verursachen die Trainingsprozesse massive Umweltbelastungen und finanzielle Kosten, die oft unreflektiert externalisiert werden. Die Faszination für immer mehr Parameter blendet aus, dass Größe nicht mit Verstehen korreliert. Ein 175-Milliarden-Parameter-Modell bleibt ein statistischer Prozess – nur ein ineffizienterer und ressourcenintensiverer.
Daten als Spiegel gesellschaftlicher Verzerrungen#
Die Trainingsdaten – zumeist ungefiltert aus dem Internet, Büchern und Foren – sind kein neutrales Abbild der Welt, sondern voller historischer und systemischer Voreingenommenheiten. Studien zeigen, dass Modelle soziale Vorurteile (zu Geschlecht, Rasse, Ethnie) nicht nur replizieren, sondern verstärken. Sie lernen aus Texten, die Diskriminierung, Hassrede und strukturelle Ungleichheit enthalten, ohne jede Möglichkeit, diese kritisch zu reflektieren. Das Modell hat kein mentales Modell von Gerechtigkeit oder Unrecht – es hat nur Wahrscheinlichkeiten.
Der ELIZA-Effekt 2.0 und seine Folgen#
Sherry Turkles Beobachtung, dass Menschen in GPT Bewusstsein projizieren, weil es wie wir spricht, hat praktische Konsequenzen: Nutzer vertrauen falschen Informationen, übernehmen voreingenommene Positionen oder entwickeln emotionale Bindungen an ein System, das nicht fühlen kann. Diese anthropomorphisierende Tendenz ist kein Bug, sondern eine fundamentale menschliche Neigung – aber sie wird von Unternehmen bewusst für Engagement und Profit genutzt. Das Risiko: Wir delegieren Entscheidungen an Systeme, die weder Verantwortung tragen noch Konzepte von Wahrheit oder Ethik besitzen.
Syntaktische Kompetenz ohne semantisches Fundament#
GPT kann über Moral diskutieren, ohne moralisch zu sein; es kann Emotionen beschreiben, ohne zu fühlen; es kann wissenschaftliche Texte generieren, ohne wissenschaftlich zu verstehen. Diese Diskrepanz zwischen Form und Inhalt führt zu „Halluzinationen" – plausibel klingende, aber falsche Behauptungen, die mit derselben Überzeugung präsentiert werden wie korrekte Fakten. Das Modell hat kein Referenzmodell der Welt, keine Möglichkeit zu prüfen, ob seine Aussagen der Realität entsprechen.
Notwendige Perspektivwechsel#
Bender et al. fordern einen radikalen Kurswechsel: Weg vom Wettlauf um immer größere Modelle, hin zur sorgfältigen Datenkuration und Dokumentation. Statt alles zu verschlucken, was das Web bietet, braucht es bewusste Auswahl, Transparenz über Herkunft und Qualität der Daten sowie eine wertesensible Gestaltung (Value Sensitive Design), die gesellschaftliche Auswirkungen von Anfang an mitdenkt. Forschung sollte sich auf Modelle konzentrieren, die explizit Weltwissen, Kausalität und ethische Reflexion integrieren – nicht nur auf die Optimierung von Sprachmustern.
Fazit: Die Illusion als Gefahr#
GPT funktioniert nicht, weil es versteht, sondern weil wir das Verstehen so effizient in Sprache codiert haben, dass Statistik als Ersatz taugt. Die Gefahr liegt nicht im Modell selbst, sondern in unserer Neigung, es mit Eigenschaften auszustatten, die es nicht hat. Solange wir diesen Unterschied nicht klar kommunizieren, riskieren wir, Entscheidungen von Bedeutung – in Bildung, Medizin, Recht – an stochastische Papageien zu delegieren. Die Aufgabe ist nicht, größere Modelle zu bauen, sondern klügere Menschen, die die Grenzen dieser Technologie erkennen und verantwortungsvoll gestalten.
Related Posts
- 'ELIZAs Regeln vs. GPTs Gewichte: Gleiche Symbolmanipulation, nur größer'
- Äpfel, Birnen und KI – Warum GPT den Unterschied nicht kennt
- Das große Reset der Realität: Wie die Simulation unserer Freiheit in einen offenen Krieg mündete
- KI's Epic Fail: Wie eine KI in 2 Stunden und 12 Neustarts eine 3-Minuten-Aufgabe komplett versaut
- Stasi 2.0: Wie Big Tech die perfekte Überwachung schafft