Posts for: #Semantik

‘ELIZA auf Steroiden: Warum GPT keine Intelligenz ist’

'ELIZA auf Steroiden: Warum GPT keine Intelligenz ist'

4. Mai 2025 – Alexander Renz
Übersetzungen: EN


GPT und ähnliche Modelle simulieren Verständigkeit. Sie imitieren Gesprächsverläufe, Emotionen, Argumentation. Doch tatsächlich handelt es sich um statistische Wahrscheinlichkeitsmodelle, die auf riesigen Textmengen trainiert wurden – ohne Bewusstsein, ohne Weltwissen, ohne Intention.


Was tut GPT wirklich?

GPT (Generative Pretrained Transformer) ist kein denkendes System, sondern ein Sprachvorhersagemodell. Es berechnet, welches Token (Wortbruchstück) mit höchster Wahrscheinlichkeit als nächstes kommen sollte – basierend auf dem Kontext vorheriger Tokens.

[]

Statistik ≠ Denken

Statistik ≠ Denken

Transformermodelle „denken“ nicht – sie optimieren Wahrscheinlichkeiten.
Ihr Output ist beeindruckend, aber völlig nicht-konzeptuell.


Warum Transformer nicht denken

Trotz aller Begeisterung fehlt Transformer-basierten Modellen (wie GPT) das, was echte Denkprozesse ausmacht:

  • Kein echtes Weltwissen
  • Kein Verständnis von Ursache und Wirkung
  • Keine Intentionen oder Ziele
  • Kein Selbstmodell oder Modell anderer
  • Keine echte Abstraktion oder symbolische Verankerung
  • Kein mentales Zeiterleben (Gedächtnis/Planung)

Sie sind statistische Spiegel, keine kognitiven Agenten.

Ein Transformer ist kein Geist – nur ein ausgeklügelter Papagei mit riesigem Echo.

[]