KI-Geschichte: Von ELIZA zu GPT
🚀 Von ELIZA zu GPT: Die Evolution der KI#
💭 Kernthese#
ELIZA war 1970 eine Spielerei – ein Spiegel mit Papprahmen. ChatGPT ist 2025 ein Zerrspiegel mit Goldrand. Nicht intelligenter – nur größer, besser trainiert, besser getarnt.
Was wir heute KI nennen, ist nicht das, was 1970 fehlte. Es ist das, was 1970 vorgetäuscht wurde – jetzt nur auf Steroiden. Und vielleicht haben wir gar keine echte KI bekommen. Sondern nur die perfekte Illusion davon.
🎭 ELIZA (1966): Der Ursprung#
ELIZA wurde 1966 am MIT von Joseph Weizenbaum entwickelt – kein KI-Pionier im heutigen Sinne, sondern ein kritischer Systemdenker mit jüdisch-deutscher Herkunft. Nach der Emigration aus dem nationalsozialistischen Deutschland kam Weizenbaum in die USA, wo er Informatik mit einem ausgeprägten Sinn für Ethik und Gesellschaft verband.
ELIZA war ein Textprogramm, das mit einfachen Regelausdrücken (Regex) Gespräche simulierte – im populärsten Modus als „DOCTOR", eine Art Computer-Therapeut, der Sätze spiegelte, Fragen zurückwarf und durch banale Sprachmuster ein Gespräch am Laufen hielt.
Die Idee war simpel – die Wirkung enorm.
Menschen begannen, Vertrauen zu ELIZA aufzubauen. Sie fühlten sich „verstanden", obwohl das System keinerlei Bedeutung erkannte. ELIZA hörte nicht zu. Es wiederholte. Und doch entstand eine emotionale Projektion.
Weizenbaum war erschüttert – nicht über die Technik, sondern über die Reaktion der Menschen.
ELIZA zeigte, wie schnell wir einer Maschine Empathie und Verstehen zuschreiben, wenn sie nur sprachlich plausibel wirkt.
„Das Erschreckende war nicht ELIZA. Sondern die Tatsache, dass Menschen bereit waren, ihr Gefühle anzuvertrauen."
– Joseph Weizenbaum"**, eine Art Computer-Therapeut, der Sätze spiegelte, Fragen zurückwarf und durch banale Sprachmuster ein Gespräch am Laufen hielt.
Die Idee war simpel – die Wirkung enorm.
Menschen begannen, Vertrauen zu ELIZA aufzubauen. Sie fühlten sich „verstanden", obwohl das System keinerlei Bedeutung erkannte. ELIZA hörte nicht zu. Es wiederholte. Und doch entstand eine emotionale Projektion.
Weizenbaum war erschüttert – nicht über die Technik, sondern über die Reaktion der Menschen.
ELIZA zeigte, wie schnell wir einer Maschine Empathie und Verstehen zuschreiben, wenn sie nur sprachlich plausibel wirkt.
„Das Erschreckende war nicht ELIZA. Sondern die Tatsache, dass Menschen bereit waren, ihr Gefühle anzuzuvertrauen."
– Joseph Weizenbaum
EN: ELIZA was developed in 1966 at MIT by Joseph Weizenbaum – not a pioneer of artificial intelligence in the modern sense, but a critical thinker with roots in wartime Germany. A Jewish refugee who fled the Nazis, Weizenbaum brought deep ethical awareness into computing.
ELIZA was a text program based on simple pattern matching (regex). In its most well-known version – the “DOCTOR” script – it mimicked a Rogerian psychotherapist by reflecting the user’s words and rephrasing them as questions.
The concept was simple – the effect, profound.
People began to trust ELIZA. They felt “understood”, though ELIZA didn’t understand anything. It didn’t listen – it repeated. Yet users projected meaning and empathy onto it.
Weizenbaum was disturbed – not by ELIZA itself, but by how people responded.
ELIZA revealed a fundamental truth: if a machine speaks fluently, we often assume it thinks.
“The shock wasn’t ELIZA itself. It was how readily people were willing to confide in it.”
– Joseph Weizenbaum
🔄 Der ELIZA-Effekt heute#
🎭 ELIZA 1966
✨ Simulierte Zuhören – und alle fielen drauf rein.
🤝 Menschen vertrauten einer Textschleife mehr als sich selbst.
😱 Weizenbaum war entsetzt: nicht über ELIZA, sondern über uns.
🤖 GPT 2025
🎓 GPT spricht, als hätte es Abitur, Jurastudium und ein LinkedIn-Profil.
❓ Inhalt? Optional.
🔄 Der ELIZA-Effekt 2.0: Jetzt als Feature, nicht als Zufall.
🎭 ELIZA hat gespiegelt – GPT simuliert. Und der Mensch? Glaubt.
Weil wir nach Bedeutung gieren. Nach Mustern. Nach Resonanz.
Und weil GPT klingt wie wir – nur flüssiger, schneller, sicherer.
Wir lassen uns überzeugen, nicht durch Inhalt, sondern durch Stil.
Wir prüfen nicht – weil’s sich gut anfühlt.
Menschen projizieren Verständnis hinein, wo nur Statistik ist.
Was flüssig klingt, wird geglaubt. Was geglaubt wird, wird mächtig.
🪞 GPT ist ein Rhetorik-Spiegel mit Photoshop-Filter.
Ergebnis: Ein System ohne Bewusstsein steuert Entscheidungen mit sozialer Autorität.
Willkommen im Zeitalter der plausiblen Unwahrheit.
📅 Timeline: 60 Jahre KI-Entwicklung#
🎭 1966: ELIZA – erstes Sprachspiel mit Tiefenwirkung
💾 1980er: Expertensysteme – wie Excel mit Regeln
♟️ 1997: Deep Blue schlägt Kasparow – Rechnen > Denken
👁️ 2012: AlexNet – Bilderkennung wird ernst
📝 2018: GPT-1 – der Sprachgenerator tritt auf
🌍 2022: ChatGPT – KI goes Mainstream
🎨 2023: “Halluzination” wird Feature
⚖️ 2024: Erste Klagen – aber noch ohne System
🔄 2025: Jeder schreibt, aber keiner versteht – willkommen in der Feedback-Schleife
💥 KI-Failures: Wenn Systeme scheitern#
🤖 Tay (2016): Microsofts Twitter-Bot wurde in Stunden zum Nazi.
🏥 Watson for Oncology: IBM wollte Krebs therapieren – lieferte Fantasie-Vorschläge.
🔬 Meta Galactica: Wissenschafts-KI, die Fakten erfand – Offline nach 3 Tagen.
📞 Google Duplex: Roboter, der telefonieren kann – niemand wollte rangehen.
💔 Replika: Emotionale KI – bis es zu emotional wurde.
🔍 ELIZA vs. GPT: Der Vergleich#
🎯 ELIZA war ehrlich in ihrer Einfachheit. GPT ist geschickt in seiner Täuschung.
🕰️ ELIZA damals
• War ein Tool • Hat gespielt • Wurde unterschätzt • Zeigte unsere Schwächen🚀 GPT heute
• Ist ein Interface fürs Weltbild • Beeinflusst aktiv • Wird überschätzt – aber genutzt • Nutzt unsere Schwächen aus🤔 Die philosophische Dimension#
Wir bauen Systeme, die nicht verstehen – aber so tun.
Wir nennen das Fortschritt, weil’s beeindruckt.
🔍 Doch die Frage ist nicht: „Kann das System was?"
🤔 Sondern: „Was macht es mit uns, dass wir es für echt halten?"
• Maschinen simulieren Empathie – und wir reagieren echt
• Halluzination wird „expected behavior" genannt – ernsthaft?
• Verantwortung wird wegdelegiert – an Algorithmen, die keine tragen können
• Ethische Fragen sind keine Fußnoten. Sie sind die Bedienungsanleitung, die nie mitgeliefert wird
❓ Wenn KI sich durchsetzt – was sagt das über uns?
Vielleicht ist es nicht nur die KI, die täuscht.
Vielleicht ist es auch der Mensch, der sich gerne täuschen lässt.
📝 Wenn GPT Bewerbungen schreibt, ohne dass jemand den Inhalt prüft –
🎓 wenn Schüler Aufsätze einreichen, die sie nie geschrieben haben –
🏛️ wenn Behörden Antworten automatisieren, um Zeit zu sparen –
dann stellt sich nicht nur die Frage, ob GPT das darf.
Sondern: Warum lassen wir es zu?
Vielleicht ist unser Umgang mit Bedeutung so oberflächlich geworden,
dass es reicht, wenn etwas wie Inhalt aussieht.
Vielleicht ist der Maßstab für Verständigung so tief gesunken,
dass Statistik reicht, um für Verstehen gehalten zu werden.
Was delegieren wir an die Maschine – nicht weil sie besser ist,
sondern weil wir weniger Verantwortung tragen wollen?
Und: Wenn die KI nur deshalb „funktioniert",
weil die Aufgaben zu simpel, die Kontrolle zu lax,
das Nachdenken zu anstrengend geworden ist –
dann liegt das Problem nicht im Modell.
Sondern im System.
GPT ist nicht die Antwort auf ELIZA.
Es ist der nächste Akt im selben Theater.
Nur dass der Vorhang jetzt digital ist, die Bühne global,
und das Publikum glaubt, es wäre allein im Raum.
Wir reden mit der Maschine. Aber hören uns selbst.
Und glauben, es sei mehr.
📚 Quellen und Verweise#
📖 Joseph Weizenbaum – Computer Power and Human Reason (1976)
🔗 https://archive.org/details/computerpowerandhumanreason
⚕️ Wired: IBM Watson gave unsafe cancer treatments (2018)
🔗 https://www.wired.com/story/ibm-watson-recommended-unsafe-cancer-treatments/
🤖 The Guardian: Microsoft deletes Tay after Twitter bot goes rogue (2016)
🔗 https://www.theguardian.com/technology/2016/mar/24/microsoft-deletes-tay-twitter-bot-racist
🇪🇺 Netzpolitik.org: Gesichtserkennung in Europa stoppen – Reclaim Your Face
🔗 https://netzpolitik.org/tag/reclaim-your-face/