„Das ist, wie wenn man Äpfel mit Birnen vergleicht – aber was, wenn man nicht weiß, was beides ist? Willkommen bei GPT.“
In der Debatte um künstliche Intelligenz wird oft übersehen, dass Large Language Models wie GPT keine semantischen Konzepte begreifen. Sie simulieren Verstehen – aber sie „wissen“ nicht, was ein Apfel oder eine Birne ist. Das ist keine bloß akademische Kritik – es hat reale Folgen, wenn wir solchen Systemen Verantwortung übertragen.
Transformermodelle „denken“ nicht – sie optimieren Wahrscheinlichkeiten.
Ihr Output ist beeindruckend, aber völlig nicht-konzeptuell.
Warum Transformer nicht denken # Trotz aller Begeisterung fehlt Transformer-basierten Modellen (wie GPT) das, was echte Denkprozesse ausmacht:
GPT und ähnliche Modelle simulieren Verständigkeit. Sie imitieren Gesprächsverläufe, Emotionen, Argumentation. Doch tatsächlich handelt es sich um statistische Wahrscheinlichkeitsmodelle, die auf riesigen Textmengen trainiert wurden – ohne Bewusstsein, ohne Weltwissen, ohne Intention.