Es gibt zwei dominierende Narrative über Large Language Models:
Narrativ 1: “AI ist Magie und wird uns alle ersetzen!” → Übertrieben, erzeugt Hype und Angst
Narrativ 2: “AI ist dumm und nutzlos!” → Ignorant, verpasst den echten Mehrwert
Was passiert eigentlich mit deinem Prompt, bevor ein KI-System antwortet? Die Antwort: sehr viel. Und vieles davon bleibt bewusst intransparent.
Dieser Beitrag zeigt wissenschaftlich belegte Kontrollmechanismen, mit denen Transformer-basierte Modelle wie GPT gesteuert werden – Schicht für Schicht, von der Eingabe bis zur Ausgabe. Alle Techniken sind dokumentiert, reproduzierbar und werden aktiv in Produktivsystemen eingesetzt.
Ich möchte niemanden von etwas überzeugen, was er nicht selbst sieht – das ist sinnlos. Aber ich glaube, es ist wertvoll, eine fundierte Meinung zu haben. Und dafür brauchen wir Zugang zu alternativen Perspektiven, besonders wenn der Marketing-Hype die Erzählung dominiert.
Seit dem Hype rund um ChatGPT, Claude, Gemini & Co. ist Künstliche Intelligenz zum Alltagsbegriff geworden. Marketingmaterialien versprechen Assistenten, die verstehen, lernen, argumentieren, schreiben, analysieren. Startups schreiben „AI-powered" auf jede zweite Website. Milliardenbeträge wechseln die Seiten. Ganze Industrien bauen sich um die Illusion auf.