„Bitte erzählen Sie mir mehr darüber.“ – ELIZA
Wer verstehen will, wie sprachbasierte Simulation lange vor der heutigen KI-Welle funktionierte, sollte hier beginnen:
🔗 Jetzt ELIZA im Browser ausprobieren
Die Demo bildet Joseph Weizenbaums ursprüngliches Programm von 1966 nach. ELIZA simuliert eine Gesprächspsychotherapeutin und antwortet mit einfachen, regelbasierten Textbausteinen – ohne Verständnis, ohne Gedächtnis, ohne Intelligenz.
Warum ELIZA bis heute relevant ist
ELIZA wurde zum Kult – obwohl (oder gerade weil) es keinerlei „Verstehen“ besitzt. Nutzer fühlten sich verstanden, obwohl das System nur spiegelte, was sie sagten.
Daraus entstand der Begriff ELIZA-Effekt:
Menschen neigen dazu, in einfache, menschenähnliche Reaktionen Bewusstsein, Empathie oder Intelligenz hineinzuinterpretieren.
Wie Andre Adrian schreibt:
Der Mensch vermenschlicht alles – Götter, Tiere, Tamagotchis. Auch bei Maschinen projiziert er Verstehen, sobald deren Verhalten vorhersehbar und vertraut wirkt. Spiegelneuronen spielen hier eine zentrale Rolle.
Das ist nicht unheimlich, sondern menschlich – und entscheidend für die heutige KI-Debatte.
Therapeutische Logik – ohne Verstehen
ELIZA orientiert sich an der klientenzentrierten Gesprächspsychotherapie von Carl Rogers.
Sie basiert auf drei Prinzipien:
- bedingungslose positive Wertschätzung
- Einfühlungsvermögen (Empathie)
- Echtheit (Kongruenz)
ELIZA erreicht diese Wirkung jedoch rein technisch – durch Regeln und Schlüsselwörter.
Sagt man z.B. „Mein Vater ist wütend“, antwortet ELIZA: „Erzählen Sie mir mehr über Ihre Familie.“
So entsteht die Illusion von Verstehen – nicht durch Intelligenz, sondern durch strukturierte Reflexion.
Weizenbaum warnte bereits:
„Der Eindruck, verstanden zu werden, entsteht im Sprecher – nicht im Programm. Es ist seine Projektion, die dem Gespräch Bedeutung verleiht.“
Historischer Kontext
- Ursprünglich geschrieben in MAD-SLIP auf einer IBM 7094
- Spätere Umsetzungen in BASIC (1970er), Python, JavaScript
- Inspiriert Programme wie PARRY (simulierte paranoide Schizophrenie)
ELIZA gilt bis heute als Schlüsselbeispiel für die Grenze zwischen Simulation und Verstehen.
Empfehlung:
Nutze diese Demo zur Reflexion, für Workshops oder zur kritischen Auseinandersetzung mit heutigen KI-Systemen.
ELIZA ist kein Chatbot – sie ist ein Spiegel unserer eigenen Interpretation.