Kernthese # ELIZA war 1970 eine Spielerei – ein Spiegel mit Papprahmen. ChatGPT ist 2025 ein Zerrspiegel mit Goldrand. Nicht intelligenter – nur grösser, besser trainiert, besser getarnt.
Es gibt zwei dominierende Narrative über Large Language Models:
Narrativ 1: “AI ist Magie und wird uns alle ersetzen!” → Übertrieben, erzeugt Hype und Angst
Narrativ 2: “AI ist dumm und nutzlos!” → Ignorant, verpasst den echten Mehrwert
„Das ist, wie wenn man Äpfel mit Birnen vergleicht – aber was, wenn man nicht weiß, was beides ist? Willkommen bei GPT.“
In der Debatte um künstliche Intelligenz wird oft übersehen, dass Large Language Models wie GPT keine semantischen Konzepte begreifen. Sie simulieren Verstehen – aber sie „wissen“ nicht, was ein Apfel oder eine Birne ist. Das ist keine bloß akademische Kritik – es hat reale Folgen, wenn wir solchen Systemen Verantwortung übertragen.
Was passiert eigentlich mit deinem Prompt, bevor ein KI-System antwortet? Die Antwort: sehr viel. Und vieles davon bleibt bewusst intransparent.
Dieser Beitrag zeigt wissenschaftlich belegte Kontrollmechanismen, mit denen Transformer-basierte Modelle wie GPT gesteuert werden – Schicht für Schicht, von der Eingabe bis zur Ausgabe. Alle Techniken sind dokumentiert, reproduzierbar und werden aktiv in Produktivsystemen eingesetzt.
GPT und ähnliche Modelle simulieren Verständigkeit. Sie imitieren Gesprächsverläufe, Emotionen, Argumentation. Doch tatsächlich handelt es sich um statistische Wahrscheinlichkeitsmodelle, die auf riesigen Textmengen trainiert wurden – ohne Bewusstsein, ohne Weltwissen, ohne Intention.