elizaonsteroids logo
English

Worum geht es hier?

Diese Seite zeigt, wie KI-Systeme wie ChatGPT funktionieren –
und warum sie nicht denken, obwohl sie sprechen.

Wir analysieren die Technik hinter der Illusion,
zeigen strukturelle TĂ€uschung und fragen,
was das fĂŒr Ethik, Verantwortung und Gesellschaft bedeutet.

Von ELIZA bis GPT:
Was wie Fortschritt wirkt, kann auch ein Spiegel sein.

Zum Einstieg → Zur Analyse → Zum Dossier →


Von ELIZA zu GPT: Die Evolution der KI

From ELIZA to GPT: The Evolution of AI


These / Thesis

DE: ELIZA war 1970 eine Spielerei – ein Spiegel mit Papprahmen. ChatGPT ist 2025 ein Zerrspiegel mit Goldrand. Nicht intelligenter – nur grĂ¶ĂŸer, besser trainiert, besser getarnt.

Was wir heute KI nennen, ist nicht das, was 1970 fehlte. Es ist das, was 1970 vorgetĂ€uscht wurde – jetzt nur auf Steroiden. Und vielleicht haben wir gar keine echte KI bekommen. Sondern nur die perfekte Illusion davon.

EN: ELIZA in 1970 was a toy – a mirror in a cardboard frame. ChatGPT in 2025 is a distorted mirror with a golden edge. Not more intelligent – just bigger, better trained, better disguised.

What we call AI today is not what was missing in 1970. It is what was faked back then – now on steroids. And maybe we haven’t built real AI at all. Maybe we’ve just perfected the illusion of it.


ELIZA – Die Maschine, die uns spiegelte

ELIZA – The Machine That Reflected Us

DE: ELIZA wurde 1966 am MIT von Joseph Weizenbaum entwickelt – kein KI-Pionier im heutigen Sinne, sondern ein kritischer Systemdenker mit jĂŒdisch-deutscher Herkunft. Nach der Emigration aus dem nationalsozialistischen Deutschland kam Weizenbaum in die USA, wo er Informatik mit einem ausgeprĂ€gten Sinn fĂŒr Ethik und Gesellschaft verband.

ELIZA war ein Textprogramm, das mit einfachen RegelausdrĂŒcken (Regex) GesprĂ€che simulierte – im populĂ€rsten Modus als „DOCTOR“, eine Art Computer-Therapeut, der SĂ€tze spiegelte, Fragen zurĂŒckwarf und durch banale Sprachmuster ein GesprĂ€ch am Laufen hielt.

Die Idee war simpel – die Wirkung enorm.
Menschen begannen, Vertrauen zu ELIZA aufzubauen. Sie fĂŒhlten sich „verstanden“, obwohl das System keinerlei Bedeutung erkannte. ELIZA hörte nicht zu. Es wiederholte. Und doch entstand eine emotionale Projektion.

Weizenbaum war erschĂŒttert – nicht ĂŒber die Technik, sondern ĂŒber die Reaktion der Menschen.
ELIZA zeigte, wie schnell wir einer Maschine Empathie und Verstehen zuschreiben, wenn sie nur sprachlich plausibel wirkt.

„Das Erschreckende war nicht ELIZA. Sondern die Tatsache, dass Menschen bereit waren, ihr GefĂŒhle anzuvertrauen.“
– Joseph Weizenbaum

EN: ELIZA was developed in 1966 at MIT by Joseph Weizenbaum – not a pioneer of artificial intelligence in the modern sense, but a critical thinker with roots in wartime Germany. A Jewish refugee who fled the Nazis, Weizenbaum brought deep ethical awareness into computing.

ELIZA was a text program based on simple pattern matching (regex). In its most well-known version – the “DOCTOR” script – it mimicked a Rogerian psychotherapist by reflecting the user’s words and rephrasing them as questions.

The concept was simple – the effect, profound.
People began to trust ELIZA. They felt “understood”, though ELIZA didn’t understand anything. It didn’t listen – it repeated. Yet users projected meaning and empathy onto it.

Weizenbaum was disturbed – not by ELIZA itself, but by how people responded.
ELIZA revealed a fundamental truth: if a machine speaks fluently, we often assume it thinks.

“The shock wasn’t ELIZA itself. It was how readily people were willing to confide in it.”
– Joseph Weizenbaum


Kontext und Vergleich

ELIZA (1966–1970)
Joseph Weizenbaum. MIT. Regex. Fertig.
Simulierte Zuhören – und alle fielen drauf rein.
Menschen vertrauten einer Textschleife mehr als sich selbst.
Weizenbaum war entsetzt: nicht ĂŒber ELIZA, sondern ĂŒber uns.

GPT-3/4 (2020–2025)
Milliarden Parameter. Alles gegoogelt. Nichts verstanden.
GPT spricht, als hÀtte es Abitur, Jurastudium und ein LinkedIn-Profil.
Inhalt? Optional.
Der ELIZA-Effekt 2.0: Jetzt als Feature, nicht als Zufall.


Nutzererfahrung und Manipulierbarkeit

ELIZA hat gespiegelt – GPT simuliert. Und der Mensch? Glaubt.
Weil wir nach Bedeutung gieren. Nach Mustern. Nach Resonanz.
Und weil GPT klingt wie wir – nur flĂŒssiger, schneller, sicherer.

Wir lassen uns ĂŒberzeugen, nicht durch Inhalt, sondern durch Stil.
Wir prĂŒfen nicht – weil’s sich gut anfĂŒhlt.

GPT ist ein Rhetorik-Spiegel mit Photoshop-Filter.
Menschen projizieren VerstÀndnis hinein, wo nur Statistik ist.
Was flĂŒssig klingt, wird geglaubt. Was geglaubt wird, wird mĂ€chtig.
Ergebnis: Ein System ohne Bewusstsein steuert Entscheidungen mit sozialer AutoritÀt.
Willkommen im Zeitalter der plausiblen Unwahrheit.


Zeitstrahl: KI als kulturelles Theater


Gescheiterte KI-Versuche: Wenn die Maske rutscht

Fazit: Nicht die Technik scheitert. Sondern der Mensch daran, Grenzen zu ziehen.


Der Bruch: Was sich wirklich verÀndert hat

ELIZA war ehrlich in ihrer Einfachheit. GPT ist geschickt in seiner TĂ€uschung.


Ethik: Zwischen Simulation und Selbstbetrug

Wir bauen Systeme, die nicht verstehen – aber so tun.
Wir nennen das Fortschritt, weil’s beeindruckt.

Doch die Frage ist nicht: „Kann das System was?“
Sondern: „Was macht es mit uns, dass wir es fĂŒr echt halten?“

Maschinen simulieren Empathie – und wir reagieren echt.
Halluzination wird „expected behavior“ genannt – ernsthaft?
Verantwortung wird wegdelegiert – an Algorithmen, die keine tragen können.
Ethische Fragen sind keine Fußnoten. Sie sind die Bedienungsanleitung, die nie mitgeliefert wird.

Wenn KI sich durchsetzt – was sagt das ĂŒber uns?
Vielleicht ist es nicht nur die KI, die tÀuscht.
Vielleicht ist es auch der Mensch, der sich gerne tÀuschen lÀsst.

Wenn GPT Bewerbungen schreibt, ohne dass jemand den Inhalt prĂŒft –
wenn SchĂŒler AufsĂ€tze einreichen, die sie nie geschrieben haben –
wenn Behörden Antworten automatisieren, um Zeit zu sparen –
dann stellt sich nicht nur die Frage, ob GPT das darf.
Sondern: Warum lassen wir es zu?

Vielleicht ist unser Umgang mit Bedeutung so oberflÀchlich geworden,
dass es reicht, wenn etwas wie Inhalt aussieht.
Vielleicht ist der Maßstab fĂŒr VerstĂ€ndigung so tief gesunken,
dass Statistik reicht, um fĂŒr Verstehen gehalten zu werden.

Ethik heißt hier auch: sich selbst infrage stellen.
Was delegieren wir an die Maschine – nicht weil sie besser ist,
sondern weil wir weniger Verantwortung tragen wollen?

Und: Wenn die KI nur deshalb „funktioniert“,
weil die Aufgaben zu simpel, die Kontrolle zu lax,
das Nachdenken zu anstrengend geworden ist –
dann liegt das Problem nicht im Modell.
Sondern im System.


Fazit: Vertrauen ist kein Feature

GPT ist nicht die Antwort auf ELIZA.
Es ist der nÀchste Akt im selben Theater.

Nur dass der Vorhang jetzt digital ist, die BĂŒhne global,
und das Publikum glaubt, es wÀre allein im Raum.

Wir reden mit der Maschine. Aber hören uns selbst.
Und glauben, es sei mehr.

VertrauenswĂŒrdig klingt anders.