Zum Hauptinhalt springen
  1. Blog/

'ELIZAs Regeln vs. GPTs Gewichte: Gleiche Symbolmanipulation, nur größer'

··302 Wörter·2 min

NUTZER: Ich fühle mich depressiv.
ELIZA: Wie lange fühlen Sie sich schon depressiv?
GPT-4: Es tut mir leid, das zu hören. Depression kann eine Herausforderung sein…

Auf den ersten Blick wirkt GPTs Antwort komplexer - doch beide Systeme tun im Kern dasselbe: Sie ordnen Eingaben passenden Ausgaben zu, ohne jegliches Verständnis.


Wie ELIZA wirklich funktionierte
#

ELIZA arbeitete mit simplen, regelbasierten Skripten - sogenannten Pattern-Action-Regeln. Diese bestanden aus vorgegebenen Mustern (z.B. erkenne “Ich fühle…”) und einer darauf basierenden, vorgefertigten Antwortstruktur. Alles ohne Kontext oder echtes “Verstehen”.

Beispielskript in ELIZA
#

; Regelvorlage
(WENN (MATCH "Ich fühle *" Eingabe)
    (ANTWORT "Wie lange fühlen Sie sich schon * ?"))

Eingabe: Ich fühle mich traurig. Ausgabe: Wie lange fühlen Sie sich schon traurig?

ELIZA war wie ein Papagei mit Schablonen - präzise, aber geistlos.


Und GPT?
#

GPT wirkt beeindruckender - es generiert längere, scheinbar empathischere Antworten wie:

“Es tut mir leid, das zu hören. Depression kann eine große Herausforderung sein. Vielleicht würde es helfen, mit jemandem zu sprechen, dem Sie vertrauen…”

Doch auch hier: Kein echtes Verständnis. GPT ordnet lediglich Tokens (“Wörter”) anhand statistischer Wahrscheinlichkeiten zu. Es hat keine Ahnung, was “depressiv” bedeutet - nur, dass auf dieses Wort typischerweise bestimmte Sätze folgen.


Unterschied in der Illusion - nicht im Prinzip
#

Der Unterschied liegt in der Flexibilität:

  • Merkmal:

    • ELIZA: Feste Skripte
    • GPT-4: Gewichtete Wahrscheinlichkeiten
  • Anpassung:

    • ELIZA: Statisch
    • GPT-4: Dynamisch zur Laufzeit (“on the fly”)
  • Kontext:

    • ELIZA: Keiner
    • GPT-4: Begrenzter Token-Kontext (z.B. 8k, 32k)
  • Verständnis:

    • ELIZA: Kein echtes Verständnis
    • GPT-4: Kein echtes Verständnis
  • Wirkung:

    • ELIZA: Primitiv, durchschaubar
    • GPT-4: Empathie-Illusion durch Sprachfülle

Man könnte sagen:

ELIZA war ein Schaf - GPT ist ein Chamäleon. Aber beide bleiben Tiere im Käfig der Symbolmanipulation.


LLMs wie GPT sind keine Gedankenmaschinen - sie sind nur bessere Nachahmer. ELIZA war ehrlich stumpf - GPT ist geschickt in der Täuschung.

Verwandte Artikel

AI mal nüchtern betrachtet: Warum Large Language Models brillante Tools sind – aber keine Magie

Es gibt zwei dominierende Narrative über Large Language Models: Narrativ 1: “AI ist Magie und wird uns alle ersetzen!” → Übertrieben, erzeugt Hype und Angst Narrativ 2: “AI ist dumm und nutzlos!” → Ignorant, verpasst den echten Mehrwert

'Die Illusion der freien Eingabe: Kontrollierte Nutzersteuerung in Transformern'

··309 Wörter·2 min
Was passiert eigentlich mit deinem Prompt, bevor ein KI-System antwortet? Die Antwort: sehr viel. Und vieles davon bleibt bewusst intransparent. Dieser Beitrag zeigt wissenschaftlich belegte Kontrollmechanismen, mit denen Transformer-basierte Modelle wie GPT gesteuert werden – Schicht für Schicht, von der Eingabe bis zur Ausgabe. Alle Techniken sind dokumentiert, reproduzierbar und werden aktiv in Produktivsystemen eingesetzt.