elizaonsteroids logo

Künstliche Intelligenz und Verbrauchertäuschung

Die Bezeichnung „KI“ erzeugt beim Verbraucher ein Bild von Denkfähigkeit, Verstehen, sogar Bewusstsein.
LLMs wie GPT erfüllen keines dieser Kriterien – und trotzdem werden sie als „intelligent“ beworben.

🔍 Kernprobleme:

  • Semantische Täuschung: Der Begriff „Intelligenz“ suggeriert menschliche Kognition, während LLMs lediglich große Textmengen statistisch auswerten. Sie simulieren Sprache, ohne Bedeutungen zu verstehen oder eigene Ziele zu verfolgen. Das Modell hat kein Weltwissen im eigentlichen Sinn, sondern „Vorhersagefähigkeiten“ auf Basis vergangener Trainingsdaten.

  • Fehlende Transparenz: Nutzer erhalten in der Regel keine systematischen Hinweise auf die Limitationen generativer Systeme, wie:

    • Kein echtes Textverständnis (Semantik wird nicht erfasst)
    • Häufige Halluzinationen (erfundene Fakten ohne Realitätsbezug)
    • Mangelnde Nachvollziehbarkeit (Black-Box-Verhalten)
    • Kein Bewusstsein oder Intentionalität – die KI „weiß“ nicht, was sie sagt
  • Marketing vs. Realität: Viele Unternehmen nutzen anthropomorphe Begriffe („assistierend“, „denkfähig“, „lernt von dir“) und setzen visuelle oder sprachliche Mittel ein, die Systemfähigkeiten überhöhen. Das schafft beim Verbraucher eine falsche Erwartung von Autonomie und Verlässlichkeit.

⚖️ Juristische Einschätzung:

  • §5 UWG – Irreführung über wesentliche Merkmale eines Produkts:
    Der Einsatz des Begriffs „Intelligenz“ oder die Suggestion echter Selbstständigkeit kann als irreführende geschäftliche Handlung gelten, wenn dem Verbraucher wesentliche Informationen über Funktionsweise, Begrenztheit oder Risiken vorenthalten werden.

  • Verstoß gegen §3 UWG (Verbot unlauterer Geschäftspraktiken):
    Besonders problematisch ist das Verschweigen systembedingter Fehlfunktionen wie Halluzinationen – insbesondere bei Anwendungen in Bildung, Gesundheit, Justiz oder Beratung.

  • EU AI Act (Verordnung über Künstliche Intelligenz – Stand: Final angenommen 2024, Geltung ab Mitte/Ende 2025):

    • Pflicht zur Transparenz bei generativen Modellen (Art. 52 AI Act):
      • Offenlegung, dass Inhalte von KI erzeugt wurden
      • Dokumentation technischer Grenzen und möglicher Risiken
      • Verbot manipulativer Interface-Gestaltung (Dark Patterns)
    • KI-Anwendungen, die mit Menschen interagieren, müssen eindeutig als solche erkennbar sein (Art. 52 Abs. 1)
  • Rechtsvergleich USA / EU:

    • In den USA gibt es keine einheitliche KI-Gesetzgebung, aber die FTC warnt seit 2023 deutlich vor „AI Washing“ – also dem unzulässigen Marketing von Produkten als KI-basiert, wenn das nicht oder nur irreführend der Fall ist.
    • In der EU hingegen wird mit dem AI Act ein präzedenzloses Regelwerk für KI-Transparenz geschaffen.

✅ Lösungsvorschläge

  • Verpflichtende Hinweise bei Textgenerierung:
    z.B. „Dieser Text wurde automatisch erstellt. Das System versteht Inhalte nicht.“

  • Verbot anthropomorpher Markenführung:
    Keine Visualisierung als „smarte Assistenten“ mit Augen, Stimme oder emotionaler Sprache, wenn keine kognitiven Fähigkeiten vorhanden sind.

  • Verbraucherbildung stärken:
    Aufklärungskampagnen über die Unterschiede zwischen:

    • Statistik und Bedeutung
    • maschinellem Lernen und menschlichem Denken
    • Output-Illusion und echter Kompetenz
  • Standardisierte Risikohinweise:
    Vor allem bei sensiblen Anwendungen wie Medizin, Rechtsberatung oder Kindeswohl sollte ein Risikodisclaimer verpflichtend sein.

  • Haftungsfragen klären:
    Wer haftet bei Schäden durch KI-Ausgaben? Anbieter müssen zur Verantwortung gezogen werden, wenn Systeme mit Vorsatz falsch dargestellt oder Risiken verharmlost wurden.