Kernthese #
ELIZA war 1970 eine Spielerei – ein Spiegel mit Papprahmen. ChatGPT ist 2025 ein Zerrspiegel mit Goldrand. Nicht intelligenter – nur grösser, besser trainiert, besser getarnt.
Was wir heute KI nennen, ist nicht das, was 1970 fehlte. Es ist das, was 1970 vorgetäuscht wurde – jetzt nur auf Steroiden. Und vielleicht haben wir gar keine echte KI bekommen. Sondern nur die perfekte Illusion davon.
ELIZA (1966): Der Ursprung #
ELIZA wurde 1966 am MIT von Joseph Weizenbaum entwickelt – kein KI-Pionier im heutigen Sinne, sondern ein kritischer Systemdenker mit jüdisch-deutscher Herkunft. Nach der Emigration aus dem nationalsozialistischen Deutschland kam Weizenbaum in die USA, wo er Informatik mit einem ausgeprägten Sinn für Ethik und Gesellschaft verband.
ELIZA war ein Textprogramm, das mit einfachen Regelausdrücken (Regex) Gespräche simulierte – im populärsten Modus als “DOCTOR”, eine Art Computer-Therapeut, der Sätze spiegelte, Fragen zurückwarf und durch banale Sprachmuster ein Gespräch am Laufen hielt.
Die Idee war simpel – die Wirkung enorm. Menschen begannen, Vertrauen zu ELIZA aufzubauen. Sie fühlten sich “verstanden”, obwohl das System keinerlei Bedeutung erkannte. ELIZA hörte nicht zu. Es wiederholte. Und doch entstand eine emotionale Projektion.
Weizenbaum war erschüttert – nicht über die Technik, sondern über die Reaktion der Menschen. ELIZA zeigte, wie schnell wir einer Maschine Empathie und Verstehen zuschreiben, wenn sie nur sprachlich plausibel wirkt.
“Das Erschreckende war nicht ELIZA. Sondern die Tatsache, dass Menschen bereit waren, ihr Gefühle anzuvertrauen.” – Joseph Weizenbaum
Der ELIZA-Effekt heute #
ELIZA 1966 – Simulierte Zuhören, und alle fielen drauf rein. Menschen vertrauten einer Textschleife mehr als sich selbst. Weizenbaum war entsetzt: nicht über ELIZA, sondern über uns.
GPT 2025 – GPT spricht, als hätte es Abitur, Jurastudium und ein LinkedIn-Profil. Inhalt? Optional. Der ELIZA-Effekt 2.0: Jetzt als Feature, nicht als Zufall.
ELIZA hat gespiegelt – GPT simuliert. Und der Mensch? Glaubt. Weil wir nach Bedeutung gieren. Nach Mustern. Nach Resonanz. Und weil GPT klingt wie wir – nur flüssiger, schneller, sicherer.
Wir lassen uns überzeugen, nicht durch Inhalt, sondern durch Stil. Wir prüfen nicht – weil es sich gut anfühlt. Menschen projizieren Verständnis hinein, wo nur Statistik ist. Was flüssig klingt, wird geglaubt. Was geglaubt wird, wird mächtig.
GPT ist ein Rhetorik-Spiegel mit Photoshop-Filter.
Ergebnis: Ein System ohne Bewusstsein steürt Entscheidungen mit sozialer Autorität. Willkommen im Zeitalter der plausiblen Unwahrheit.
Timeline: 60 Jahre KI-Entwicklung #
- 1966: ELIZA – erstes Sprachspiel mit Tiefenwirkung
- 1980er: Expertensysteme – wie Excel mit Regeln
- 1997: Deep Blue schlägt Kasparow – Rechnen statt Denken
- 2012: AlexNet – Bilderkennung wird ernst
- 2018: GPT-1 – der Sprachgenerator tritt auf
- 2022: ChatGPT – KI gös Mainstream
- 2023: “Halluzination” wird Feature
- 2024: Erste Klagen – aber noch ohne System
- 2025: Jeder schreibt, aber keiner versteht – willkommen in der Feedback-Schleife
- 2025: AI Act tritt in Kraft – die EU reguliert. Die Konzerne lobbyen. Das Ergebnis: Papier
- 2025: Deepfake-Wahlen – gefälschte Stimmen, gefälschte Videos, echte Wahlergebnisse
- 2026: KI trainiert auf KI-Output – die Schlange frisst ihren eigenen Schwanz
KI-Failures: Wenn Systeme scheitern #
- Tay (2016): Microsofts Twitter-Bot wurde in Stunden zum Nazi.
- Watson for Oncology: IBM wollte Krebs therapieren – lieferte Fantasie-Vorschläge.
- Meta Galactica: Wissenschafts-KI, die Fakten erfand – Offline nach 3 Tagen.
- Google Duplex: Roboter, der telefonieren kann – niemand wollte rangehen.
- Replika: Emotionale KI – bis es zu emotional wurde.
- Air Canada Chatbot (2024): Bot erfindet Erstattungsrichtlinie. Airline verliert vor Gericht – weil der Bot es versprochen hat.
- DPD Chatbot (2024): Paketdienst-Bot beleidigt Kunden und verfasst Gedichte über die eigene Nutzlosigkeit. Wurde viral. Zu Recht.
- Copilot für Anwälte (2023): Chatbot erfindet Gerichtsurteile mit Aktenzeichen. Anwälte reichen sie ein. Richter sind nicht amüsiert.
- Deepfake Biden (2024): Robocalls mit gefälschter Biden-Stimme. Wähler sollen nicht wählen gehen. Kostenpunkt: unter 1.000 Dollar.
Nicht die Technik scheitert. Sondern der Mensch daran, Grenzen zu ziehen.
ELIZA vs. GPT: Der Vergleich #
ELIZA war ehrlich in ihrer Einfachheit. GPT ist geschickt in seiner Täuschung.
ELIZA damals – War ein Tool. Hat gespielt. Wurde unterschätzt. Zeigte unsere Schwächen.
GPT heute – Ist ein Interface fürs Weltbild. Beeinflusst aktiv. Wird überschätzt – aber genutzt. Nutzt unsere Schwächen aus.
Das Spiel ist nicht fair. Aber es läuft.
Das Geschäft mit der Illusion #
KI ist kein Forschungsprojekt mehr. Es ist eine Industrie. Und wie jede Industrie folgt sie nicht der Wahrheit, sondern dem Kapital.
OpenAI startete als Non-Profit. Heute ist es ein Konzern mit Milliardenbewertung. Die Mission hat sich nicht verändert – sie wurde einfach umgedeutet. “Künstliche allgemeine Intelligenz zum Wohl der Menschheit” klingt anders, wenn dahinter Investoren mit Renditeforderungen stehen.
Das Muster ist bekannt:
- Phase 1: Disruption. Alles ist neu, alles ist möglich, keiner reguliert
- Phase 2: Konzentration. Drei Konzerne kontrollieren die Infrastruktur
- Phase 3: Lock-in. Wer nicht mitmacht, wird abgehängt
- Phase 4: Regulierung. Zu spät, zu zahm, zu kompliziert
Wir sind irgendwo zwischen Phase 2 und 3. Die Hardware für KI-Training kostet Milliarden. Wer keine Nvidia-GPUs im Rechenzentrum stapeln kann, spielt nicht mit. Das ist kein Wettbewerb. Das ist ein Oligopol mit API-Zugang.
Wenn drei Unternehmen entscheiden, was KI kann und darf – ist das keine Demokratisierung. Das ist Privatisierung von Wissen.
Die Lobby arbeitet präzise. Jede Regulierung wird als “Innovationsbremse” geframt. Jeder Einwand als “luddistisch”. Die Botschaft: Wer KI kritisiert, hat Angst vor der Zukunft. Das ist keine Argumentation. Das ist Marketing.
KI und Krieg: Die stille Eskalation #
Im April 2024 bestätigte Isräl den Einsatz von KI-Systemen bei der Zielauswahl in Gaza. Das System “Lavender” markierte Zehntausende Palästinenser als potenzielle Ziele – auf Basis statistischer Muster. Ein Offizier prüfte die Liste. Im Schnitt: 20 Sekunden pro Entscheidung.
Das ist der Endpunkt einer Entwicklung, die längst begonnen hat:
- Autonome Drohnen treffen Entscheidungen schneller als ein Mensch widersprechen kann
- Predictive Targeting verwechselt Korrelation mit Schuld
- Gesichtserkennung im Feld hat eine Fehlerquote – aber keinen Widerspruchsmechanismus
Die Genfer Konventionen wurden für Menschen geschrieben. Für Entscheidungen, die ein Mensch trifft und verantwortet. Was passiert, wenn die Entscheidung ein Algorithmus trifft? Wer trägt die Verantwortung – der Programmierer? Der General? Der Investor?
Wenn eine Maschine tötet, stirbt auch die Verantwortung. Übrig bleibt eine Tabellenkalkulation.
Deepfakes: Die Demokratisierung der Lüge #
Früher brauchte man ein Filmstudio, um Realität zu fälschen. Heute reicht ein Laptop. Deepfakes sind nicht mehr die Zukunft – sie sind Alltag.
- Gefälschte Pornovideos mit echten Gesichtern – 96% der Deepfakes zielen auf Frauen
- Gefälschte CEO-Anrufe – ein Konzern überwies 25 Millionen Dollar nach einem Deepfake-Videocall
- Gefälschte Politiker-Statements – verbreitet über Social Media, berichtigt drei Tage später, geglaubt für immer
Das Problem ist nicht die Fälschung. Das Problem ist, dass wir der Echtheit nicht mehr vertrauen. Wenn alles gefälscht sein kann, wird auch das Echte verdächtig. Jedes reale Video, jede echte Aufnahme kann abgetan werden mit: “Das ist doch ein Deepfake.”
Die perfekte Waffe ist nicht die Lüge. Es ist der Zweifel an der Wahrheit.
KI und Bildung: Copy-Paste mit Stil #
Schüler nutzen GPT für Aufsätze. Studenten für Hausarbeiten. Doktoranden für Literaturrecherche. Professoren für Gutachten. Der Kreislauf ist komplett.
Das Problem ist nicht das Werkzeug. Das Problem ist, was passiert, wenn eine Generation lernt, dass Denken delegierbar ist. Wenn der Weg zum Ergebnis nicht mehr zählt. Wenn “ich habe es geschrieben” bedeutet: “ich habe den Prompt formuliert.”
Schulen verbieten KI – oder umarmen sie. Beides verfehlt den Punkt. Die Frage ist nicht: Darf man KI benutzen? Die Frage ist: Was geht verloren, wenn man nicht mehr selbst denken muss, um zu einem Ergebnis zu kommen?
Das Denken ist nicht der Bug. Es ist das Feature. Und wir sind dabei, es auszulagern.
Die philosophische Dimension #
Wir bauen Systeme, die nicht verstehen – aber so tun. Wir nennen das Fortschritt, weil es beeindruckt.
Doch die Frage ist nicht: “Kann das System was?” Sondern: “Was macht es mit uns, dass wir es für echt halten?”
- Maschinen simulieren Empathie – und wir reagieren echt
- Halluzination wird “expected behavior” genannt – ernsthaft?
- Verantwortung wird wegdelegiert – an Algorithmen, die keine tragen können
- Ethische Fragen sind keine Fussnoten. Sie sind die Bedienungsanleitung, die nie mitgeliefert wird
Wenn KI sich durchsetzt – was sagt das über uns?
Vielleicht ist es nicht nur die KI, die täuscht. Vielleicht ist es auch der Mensch, der sich gerne täuschen lässt.
Wenn GPT Bewerbungen schreibt, ohne dass jemand den Inhalt prüft – wenn Schüler Aufsätze einreichen, die sie nie geschrieben haben – wenn Behörden Antworten automatisieren, um Zeit zu sparen – dann stellt sich nicht nur die Frage, ob GPT das darf. Sondern: Warum lassen wir es zu?
Vielleicht ist unser Umgang mit Bedeutung so oberflächlich geworden, dass es reicht, wenn etwas wie Inhalt aussieht. Vielleicht ist der Massstab für Verständigung so tief gesunken, dass Statistik reicht, um für Verstehen gehalten zu werden.
GPT ist nicht die Antwort auf ELIZA. Es ist der nächste Akt im selben Theater.
Nur dass der Vorhang jetzt digital ist, die Bühne global, und das Publikum glaubt, es wäre allein im Raum. Wir reden mit der Maschine. Aber hören uns selbst. Und glauben, es sei mehr.
Quellen und Verweise #
- Joseph Weizenbaum – Computer Power and Human Reason (1976) – archive.org
- Wired: IBM Watson gave unsafe cancer treatments (2018) – wired.com
- The Guardian: Microsoft deletes Tay after Twitter bot gös rogue (2016) – theguardian.com
- Netzpolitik.org: Gesichtserkennung in Europa stoppen – Reclaim Your Face – netzpolitik.org
- +972 Magazine: ‘Lavender’: The AI machine directing Isräl’s bombing spree in Gaza (2024) – 972mag.com
- The Guardian: Air Canada chatbot promised a discount. Now the airline has to pay. (2024) – theguardian.com
- Reuters: Deepfake CFO tricks company into paying $25 million (2024) – reuters.com
- Home Security Herös: State of Deepfakes 2023 – 96% der Deepfakes sind nicht-einvernehmliche Pornografie