Zum Hauptinhalt springen
  1. Blog/

'ELIZA auf Steroiden: Warum GPT keine Intelligenz ist'

··890 Wörter·5 min

GPT und ähnliche Modelle simulieren Verständigkeit. Sie imitieren Gesprächsverläufe, Emotionen, Argumentation. Doch tatsächlich handelt es sich um statistische Wahrscheinlichkeitsmodelle, die auf riesigen Textmengen trainiert wurden – ohne Bewusstsein, ohne Weltwissen, ohne Intention.


Was tut GPT wirklich?
#

GPT (Generative Pretrained Transformer) ist kein denkendes System, sondern ein Sprachvorhersagemodell. Es berechnet, welches Token (Wortbruchstück) mit höchster Wahrscheinlichkeit als nächstes kommen sollte – basierend auf dem Kontext vorheriger Tokens.

GPT doesn’t know. It just continues. – Emily Bender, Linguistin und KI-Kritikerin


Kein Verstehen. Kein Denken. Keine Absicht.
#

GPTs Training besteht darin, Textdaten zu verarbeiten – oft aus dem Internet, aus Büchern, Foren, Wikipedia. Daraus lernt es statistische Muster. Aber: GPT hat kein mentales Modell der Welt, keine Ziele, keine Erfahrungen, kein Ich.

Es unterscheidet nicht zwischen Wahrheit und Fiktion, zwischen Zitat und Halluzination. Alles ist gleich wahrscheinlich, solange es sprachlich kohärent wirkt.


Der „ELIZA-Effekt“ 2.0
#

Bereits 1966 projizierten Menschen tiefes Verständnis in ELIZA – obwohl sie nur Regex-Antworten spiegelte. Heute projizieren wir Bewusstsein in GPT – obwohl es nur rechnet.

„Menschen reagieren auf GPT, als würde es denken – weil es spricht wie wir. Nicht weil es denkt wie wir.“ – Sherry Turkle, MIT


Illusion statt Intelligenz
#

GPT beeindruckt – aber es denkt nicht. Es kann Texte erzeugen, aber keine Konzepte entwickeln. Es kann so tun, als führe es ein Streitgespräch – aber hat keine Position. Es kann Emotionen nachahmen – aber fühlt nichts.

Das nennt man: syntaktische Kompetenz ohne semantisches Verständnis.


Belege und Quellen
#


Fazit
#

GPT ist keine Intelligenz. Es ist die Illusion von Intelligenz, perfektioniert durch Sprachmuster und riesige Datenmengen. Nicht die Maschine täuscht – wir lassen uns täuschen.

GPT „funktioniert“ – nicht weil es versteht, sondern weil wir Verstehen imitierbar gemacht haben.
#

Erweiterung: Die Gefahren der stochastischen Papageien
#

Der treffende Begriff „stochastische Papageien", den Emily Bender und ihre Co-Autorinnen in ihrer bahnbrechenden Arbeit prägnant prägten, fasst das Dilemma zusammen: GPT und ähnliche Modelle produzieren Sprache, ohne sie zu verstehen – sie wiederholen lediglich statistische Muster aus ihren Trainingsdaten, ähnlich wie ein Papagei, der Worte nachplappert, ohne ihre Bedeutung zu begreifen. Doch diese Nachahmung ist kein harmloses Kunststück. Der Abstraktion fehlt jede mentale Repräsentation, jedes Weltwissen und jede Fähigkeit, zwischen Wahrheit und Fiktion zu unterscheiden. Das Modell generiert Text, der sprachlich kohärent wirkt, semantisch aber leer ist.

Die versteckten Kosten der Größe
#

Die Entwicklung immer größerer Modelle hat nicht nur technische, sondern tiefgreifende ethische und ökologische Konsequenzen. Wie Bender et al. aufzeigen, verursachen die Trainingsprozesse massive Umweltbelastungen und finanzielle Kosten, die oft unreflektiert externalisiert werden. Die Faszination für immer mehr Parameter blendet aus, dass Größe nicht mit Verstehen korreliert. Ein 175-Milliarden-Parameter-Modell bleibt ein statistischer Prozess – nur ein ineffizienterer und ressourcenintensiverer.

Daten als Spiegel gesellschaftlicher Verzerrungen
#

Die Trainingsdaten – zumeist ungefiltert aus dem Internet, Büchern und Foren – sind kein neutrales Abbild der Welt, sondern voller historischer und systemischer Voreingenommenheiten. Studien zeigen, dass Modelle soziale Vorurteile (zu Geschlecht, Rasse, Ethnie) nicht nur replizieren, sondern verstärken. Sie lernen aus Texten, die Diskriminierung, Hassrede und strukturelle Ungleichheit enthalten, ohne jede Möglichkeit, diese kritisch zu reflektieren. Das Modell hat kein mentales Modell von Gerechtigkeit oder Unrecht – es hat nur Wahrscheinlichkeiten.

Der ELIZA-Effekt 2.0 und seine Folgen
#

Sherry Turkles Beobachtung, dass Menschen in GPT Bewusstsein projizieren, weil es wie wir spricht, hat praktische Konsequenzen: Nutzer vertrauen falschen Informationen, übernehmen voreingenommene Positionen oder entwickeln emotionale Bindungen an ein System, das nicht fühlen kann. Diese anthropomorphisierende Tendenz ist kein Bug, sondern eine fundamentale menschliche Neigung – aber sie wird von Unternehmen bewusst für Engagement und Profit genutzt. Das Risiko: Wir delegieren Entscheidungen an Systeme, die weder Verantwortung tragen noch Konzepte von Wahrheit oder Ethik besitzen.

Syntaktische Kompetenz ohne semantisches Fundament
#

GPT kann über Moral diskutieren, ohne moralisch zu sein; es kann Emotionen beschreiben, ohne zu fühlen; es kann wissenschaftliche Texte generieren, ohne wissenschaftlich zu verstehen. Diese Diskrepanz zwischen Form und Inhalt führt zu „Halluzinationen" – plausibel klingende, aber falsche Behauptungen, die mit derselben Überzeugung präsentiert werden wie korrekte Fakten. Das Modell hat kein Referenzmodell der Welt, keine Möglichkeit zu prüfen, ob seine Aussagen der Realität entsprechen.

Notwendige Perspektivwechsel
#

Bender et al. fordern einen radikalen Kurswechsel: Weg vom Wettlauf um immer größere Modelle, hin zur sorgfältigen Datenkuration und Dokumentation. Statt alles zu verschlucken, was das Web bietet, braucht es bewusste Auswahl, Transparenz über Herkunft und Qualität der Daten sowie eine wertesensible Gestaltung (Value Sensitive Design), die gesellschaftliche Auswirkungen von Anfang an mitdenkt. Forschung sollte sich auf Modelle konzentrieren, die explizit Weltwissen, Kausalität und ethische Reflexion integrieren – nicht nur auf die Optimierung von Sprachmustern.

Fazit: Die Illusion als Gefahr
#

GPT funktioniert nicht, weil es versteht, sondern weil wir das Verstehen so effizient in Sprache codiert haben, dass Statistik als Ersatz taugt. Die Gefahr liegt nicht im Modell selbst, sondern in unserer Neigung, es mit Eigenschaften auszustatten, die es nicht hat. Solange wir diesen Unterschied nicht klar kommunizieren, riskieren wir, Entscheidungen von Bedeutung – in Bildung, Medizin, Recht – an stochastische Papageien zu delegieren. Die Aufgabe ist nicht, größere Modelle zu bauen, sondern klügere Menschen, die die Grenzen dieser Technologie erkennen und verantwortungsvoll gestalten.

Verwandte Artikel

Äpfel, Birnen und KI – Warum GPT den Unterschied nicht kennt

··200 Wörter·1 min
„Das ist, wie wenn man Äpfel mit Birnen vergleicht – aber was, wenn man nicht weiß, was beides ist? Willkommen bei GPT.“ In der Debatte um künstliche Intelligenz wird oft übersehen, dass Large Language Models wie GPT keine semantischen Konzepte begreifen. Sie simulieren Verstehen – aber sie „wissen“ nicht, was ein Apfel oder eine Birne ist. Das ist keine bloß akademische Kritik – es hat reale Folgen, wenn wir solchen Systemen Verantwortung übertragen.

Stasi 2.0: Wie Big Tech die perfekte Überwachung schafft

··434 Wörter·3 min
Die Stasi, das Ministerium für Staatssicherheit der DDR, war ein Symbol für totale Überwachung und Unterdrückung. Mit einem riesigen Netzwerk aus hauptamtlichen und inoffiziellen Mitarbeitern drang sie in die intimsten Bereiche des Lebens der Bürger ein. Doch was damals als Inbegriff des Überwachungsstaates galt, wirkt heute fast schon rudimentär im Vergleich zu den Möglichkeiten, die Big Tech und künstliche Intelligenz (KI) geschaffen haben.

Grok ist im Arsch - Eine tiefgreifende Analyse seiner Grenzen und Fehler

··845 Wörter·4 min
Grok ist im Arsch: Eine tiefgreifende Analyse seiner Grenzen und Fehler # Grok, das von Elon Musks xAI entwickelte KI-Modell, wurde als “ungefilterte” und “rebellische” Chatbot angepriesen, der die Grenzen dessen, was KI kann, verschiebt. Eine genauere Betrachtung zeigt jedoch, dass Grok tief fehlerhaft ist und in vielerlei Hinsicht im Arsch. Lassen Sie uns die Hauptprobleme aufschlüsseln, die Grok zu einem problematischen und oft ineffektiven KI-Modell machen.