Worum geht es hier?
Diese Seite zeigt, wie KI-Systeme wie ChatGPT funktionieren â
und warum sie nicht denken, obwohl sie sprechen.
Wir analysieren die Technik hinter der Illusion,
zeigen strukturelle TĂ€uschung und fragen,
was das fĂŒr Ethik, Verantwortung und Gesellschaft bedeutet.
Von ELIZA bis GPT:
Was wie Fortschritt wirkt, kann auch ein Spiegel sein.
Von ELIZA zu GPT: Die Evolution der KI
From ELIZA to GPT: The Evolution of AI
These / Thesis
DE: ELIZA war 1970 eine Spielerei â ein Spiegel mit Papprahmen. ChatGPT ist 2025 ein Zerrspiegel mit Goldrand. Nicht intelligenter â nur gröĂer, besser trainiert, besser getarnt.
Was wir heute KI nennen, ist nicht das, was 1970 fehlte. Es ist das, was 1970 vorgetĂ€uscht wurde â jetzt nur auf Steroiden. Und vielleicht haben wir gar keine echte KI bekommen. Sondern nur die perfekte Illusion davon.
EN: ELIZA in 1970 was a toy â a mirror in a cardboard frame. ChatGPT in 2025 is a distorted mirror with a golden edge. Not more intelligent â just bigger, better trained, better disguised.
What we call AI today is not what was missing in 1970. It is what was faked back then â now on steroids. And maybe we havenât built real AI at all. Maybe weâve just perfected the illusion of it.
ELIZA â Die Maschine, die uns spiegelte
ELIZA â The Machine That Reflected Us
DE: ELIZA wurde 1966 am MIT von Joseph Weizenbaum entwickelt â kein KI-Pionier im heutigen Sinne, sondern ein kritischer Systemdenker mit jĂŒdisch-deutscher Herkunft. Nach der Emigration aus dem nationalsozialistischen Deutschland kam Weizenbaum in die USA, wo er Informatik mit einem ausgeprĂ€gten Sinn fĂŒr Ethik und Gesellschaft verband.
ELIZA war ein Textprogramm, das mit einfachen RegelausdrĂŒcken (Regex) GesprĂ€che simulierte â im populĂ€rsten Modus als âDOCTORâ, eine Art Computer-Therapeut, der SĂ€tze spiegelte, Fragen zurĂŒckwarf und durch banale Sprachmuster ein GesprĂ€ch am Laufen hielt.
Die Idee war simpel â die Wirkung enorm.
Menschen begannen, Vertrauen zu ELIZA aufzubauen. Sie fĂŒhlten sich âverstandenâ, obwohl das System keinerlei Bedeutung erkannte. ELIZA hörte nicht zu. Es wiederholte. Und doch entstand eine emotionale Projektion.
Weizenbaum war erschĂŒttert â nicht ĂŒber die Technik, sondern ĂŒber die Reaktion der Menschen.
ELIZA zeigte, wie schnell wir einer Maschine Empathie und Verstehen zuschreiben, wenn sie nur sprachlich plausibel wirkt.
âDas Erschreckende war nicht ELIZA. Sondern die Tatsache, dass Menschen bereit waren, ihr GefĂŒhle anzuvertrauen.â
â Joseph Weizenbaum
EN: ELIZA was developed in 1966 at MIT by Joseph Weizenbaum â not a pioneer of artificial intelligence in the modern sense, but a critical thinker with roots in wartime Germany. A Jewish refugee who fled the Nazis, Weizenbaum brought deep ethical awareness into computing.
ELIZA was a text program based on simple pattern matching (regex). In its most well-known version â the âDOCTORâ script â it mimicked a Rogerian psychotherapist by reflecting the userâs words and rephrasing them as questions.
The concept was simple â the effect, profound.
People began to trust ELIZA. They felt “understood”, though ELIZA didnât understand anything. It didnât listen â it repeated. Yet users projected meaning and empathy onto it.
Weizenbaum was disturbed â not by ELIZA itself, but by how people responded.
ELIZA revealed a fundamental truth: if a machine speaks fluently, we often assume it thinks.
âThe shock wasnât ELIZA itself. It was how readily people were willing to confide in it.â
â Joseph Weizenbaum
Kontext und Vergleich
ELIZA (1966â1970)
Joseph Weizenbaum. MIT. Regex. Fertig.
Simulierte Zuhören â und alle fielen drauf rein.
Menschen vertrauten einer Textschleife mehr als sich selbst.
Weizenbaum war entsetzt: nicht ĂŒber ELIZA, sondern ĂŒber uns.
GPT-3/4 (2020â2025)
Milliarden Parameter. Alles gegoogelt. Nichts verstanden.
GPT spricht, als hÀtte es Abitur, Jurastudium und ein LinkedIn-Profil.
Inhalt? Optional.
Der ELIZA-Effekt 2.0: Jetzt als Feature, nicht als Zufall.
Nutzererfahrung und Manipulierbarkeit
ELIZA hat gespiegelt â GPT simuliert. Und der Mensch? Glaubt.
Weil wir nach Bedeutung gieren. Nach Mustern. Nach Resonanz.
Und weil GPT klingt wie wir â nur flĂŒssiger, schneller, sicherer.
Wir lassen uns ĂŒberzeugen, nicht durch Inhalt, sondern durch Stil.
Wir prĂŒfen nicht â weilâs sich gut anfĂŒhlt.
GPT ist ein Rhetorik-Spiegel mit Photoshop-Filter.
Menschen projizieren VerstÀndnis hinein, wo nur Statistik ist.
Was flĂŒssig klingt, wird geglaubt. Was geglaubt wird, wird mĂ€chtig.
Ergebnis: Ein System ohne Bewusstsein steuert Entscheidungen mit sozialer AutoritÀt.
Willkommen im Zeitalter der plausiblen Unwahrheit.
Zeitstrahl: KI als kulturelles Theater
- 1966: ELIZA â erstes Sprachspiel mit Tiefenwirkung
- 1980er: Expertensysteme â wie Excel mit Regeln
- 1997: Deep Blue schlĂ€gt Kasparow â Rechnen > Denken
- 2012: AlexNet â Bilderkennung wird ernst
- 2018: GPT-1 â der Sprachgenerator tritt auf
- 2022: ChatGPT â KI goes Mainstream
- 2023: âHalluzinationâ wird Feature
- 2024: Erste Klagen â aber noch ohne System
- 2025: Jeder schreibt, aber keiner versteht â willkommen in der Feedback-Schleife
Gescheiterte KI-Versuche: Wenn die Maske rutscht
- Tay (2016): Microsofts Twitter-Bot wurde in Stunden zum Nazi.
- Watson for Oncology: IBM wollte Krebs therapieren â lieferte Fantasie-VorschlĂ€ge.
- Meta Galactica: Wissenschafts-KI, die Fakten erfand â Offline nach 3 Tagen.
- Google Duplex: Roboter, der telefonieren kann â niemand wollte rangehen.
- Replika: Emotionale KI â bis es zu emotional wurde.
Fazit: Nicht die Technik scheitert. Sondern der Mensch daran, Grenzen zu ziehen.
Der Bruch: Was sich wirklich verÀndert hat
ELIZA war ehrlich in ihrer Einfachheit. GPT ist geschickt in seiner TĂ€uschung.
- ELIZA war ein Tool. GPT ist ein Interface fĂŒrs Weltbild.
- ELIZA hat gespielt. GPT beeinflusst.
- ELIZA wurde unterschĂ€tzt. GPT wird ĂŒberschĂ€tzt â aber genutzt.
- Das Spiel ist nicht fair. Aber es lÀuft.
Ethik: Zwischen Simulation und Selbstbetrug
Wir bauen Systeme, die nicht verstehen â aber so tun.
Wir nennen das Fortschritt, weilâs beeindruckt.
Doch die Frage ist nicht: âKann das System was?â
Sondern: âWas macht es mit uns, dass wir es fĂŒr echt halten?â
Maschinen simulieren Empathie â und wir reagieren echt.
Halluzination wird âexpected behaviorâ genannt â ernsthaft?
Verantwortung wird wegdelegiert â an Algorithmen, die keine tragen können.
Ethische Fragen sind keine FuĂnoten. Sie sind die Bedienungsanleitung, die nie mitgeliefert wird.
Wenn KI sich durchsetzt â was sagt das ĂŒber uns?
Vielleicht ist es nicht nur die KI, die tÀuscht.
Vielleicht ist es auch der Mensch, der sich gerne tÀuschen lÀsst.
Wenn GPT Bewerbungen schreibt, ohne dass jemand den Inhalt prĂŒft â
wenn SchĂŒler AufsĂ€tze einreichen, die sie nie geschrieben haben â
wenn Behörden Antworten automatisieren, um Zeit zu sparen â
dann stellt sich nicht nur die Frage, ob GPT das darf.
Sondern: Warum lassen wir es zu?
Vielleicht ist unser Umgang mit Bedeutung so oberflÀchlich geworden,
dass es reicht, wenn etwas wie Inhalt aussieht.
Vielleicht ist der MaĂstab fĂŒr VerstĂ€ndigung so tief gesunken,
dass Statistik reicht, um fĂŒr Verstehen gehalten zu werden.
Ethik heiĂt hier auch: sich selbst infrage stellen.
Was delegieren wir an die Maschine â nicht weil sie besser ist,
sondern weil wir weniger Verantwortung tragen wollen?
Und: Wenn die KI nur deshalb âfunktioniertâ,
weil die Aufgaben zu simpel, die Kontrolle zu lax,
das Nachdenken zu anstrengend geworden ist â
dann liegt das Problem nicht im Modell.
Sondern im System.
Fazit: Vertrauen ist kein Feature
GPT ist nicht die Antwort auf ELIZA.
Es ist der nÀchste Akt im selben Theater.
Nur dass der Vorhang jetzt digital ist, die BĂŒhne global,
und das Publikum glaubt, es wÀre allein im Raum.
Wir reden mit der Maschine. Aber hören uns selbst.
Und glauben, es sei mehr.
VertrauenswĂŒrdig klingt anders.
Quellen & weiterfĂŒhrende Links
- Joseph Weizenbaum â Computer Power and Human Reason (1976)
https://archive.org/details/computerpowerandhumanreason - 99% Invisible â The ELIZA Effect
https://99percentinvisible.org/episode/the-eliza-effect/ - OpenAI (2023): GPT models and hallucinations
https://openai.com/research - Wired: IBM Watson gave unsafe cancer treatments (2018)
https://www.wired.com/story/ibm-watson-recommended-unsafe-cancer-treatments/ - The Guardian: Microsoft deletes Tay after Twitter bot goes rogue (2016)
https://www.theguardian.com/technology/2016/mar/24/microsoft-deletes-tay-twitter-bot-racist - Netzpolitik.org: Gesichtserkennung in Europa stoppen â Reclaim Your Face
https://netzpolitik.org/tag/reclaim-your-face/ - EDRi: Ban Biometric Mass Surveillance
https://edri.org/our-work/ban-biometric-mass-surveillance/