Eine satirisch-ernste Erinnerung daran, dass Large Language Models Semantik nicht wirklich verstehen.
Äpfel, Birnen und KI – Warum GPT den Unterschied nicht kennt
Eine satirisch-ernste Erinnerung daran, dass Large Language Models Semantik nicht wirklich verstehen.
GPT und ähnliche Modelle simulieren Verständigkeit. Sie imitieren Gesprächsverläufe, Emotionen, Argumentation. Doch tatsächlich handelt es sich um statistische Wahrscheinlichkeitsmodelle, die auf riesigen Textmengen trainiert wurden – ohne Bewusstsein, ohne Weltwissen, ohne Intention.
GPT (Generative Pretrained Transformer) ist kein denkendes System, sondern ein Sprachvorhersagemodell. Es berechnet, welches Token (Wortbruchstück) mit höchster Wahrscheinlichkeit als nächstes kommen sollte – basierend auf dem Kontext vorheriger Tokens.
GPT doesn’t know. It just continues. – Emily Bender, Linguistin und KI-Kritikerin