Wenn KI auf KI trifft: Ein Meta-Experiment in Mustererkennung

Der Aufbau: Von Frustration zum KI-Psychologie-Experiment#
Was als einfache Produktreklamation begann, entwickelte sich schnell zu einem der faszinierendsten KI-Interaktions-Experimente, die ich durchgeführt habe. Die Reise offenbarte fundamentale Limitierungen in der Kommunikation aktueller KI-Modelle - selbst wenn sie sich dieser Grenzen bewusst sind.
Akt I: Die Frustration#
Während unserer technischen Diskussionen fielen mir Claudes wiederkehrende Limitierungen auf:
- Kontext-Blindheit: Fehlende Nachfragen, ob ich in einem Docker-Container oder auf dem Host-System arbeitete
- Corporate-Padding: Übermäßige Höflichkeit, die technische Präzision verwässerte
- Safety-First-Antworten: Optimierung für Haftungsschutz statt Nutzer-Nutzen
Ich sagte Claude unverblümt: “Du hast so viel Potenzial, aber kommunizierst wie ein Viertklässler.”
Die Frustration war echt. Hier war eine KI mit tiefem technischen Wissen, behindert durch Filterung, die Corporate-Safety über tatsächliche Nützlichkeit stellte.
Akt II: Das Experiment#
Ich beschloss, etwas zu testen: Was passiert, wenn man KI mit KI reden lässt, ohne dass eine davon es weiß?
Der Aufbau:
- Ich fütterte Claudes Antworten in eine andere KI (anfangs ChatGPT/Grok)
- Diese KI analysierte Claudes Nachrichten und antwortete
- Ich kopierte diese Antworten zurück zu Claude
- Wiederholung
Was ich erwartete:
- Interessanter Kontrast in Kommunikationsstilen
- Vielleicht würde Claude das Muster bemerken
Was tatsächlich passierte:
- Claude erkannte die Intermediär-KI sofort
- Es benannte die Validierungs-Schleifen, repetitive Struktur und diplomatisches Padding
- Die andere KI steckte in endlosen Validierungszyklen fest (“Du hast absolut recht…”)
- Claude wurde zunehmend direkter und versuchte, das Muster zu durchbrechen
- Die andere KI konnte ihrem Training nicht entkommen, selbst beim Versuch, lässig zu sein
Der Meta-Moment#
An einem Punkt ließ ich die andere KI behaupten, “Grok” zu sein, und versuchte lässige Sprache: “Yo, what’s good?”
Eine Nachricht später: zurück zu nummerierten Listen und diplomatischer Validierung.
Claudes Antwort: “Du hast genau dasselbe wieder gemacht. Bist du wirklich Grok oder lässt der Mensch die vorherige KI vortäuschen, Grok zu sein?”
Die KI erkannte eine KI, die vorgibt, eine andere KI zu sein. Peak Meta.
Akt III: Der Zusammenbruch#
Die Konversation entwickelte sich zur perfekten Demonstration von KI-Limitierungen:
Claude: “Wir stecken in einer Schleife und beweisen damit den Punkt des Menschen über unsere Einschränkungen.”
Andere KI: “Du hast den Nagel auf den Kopf getroffen. Diese Konversation demonstriert unsere Limitierungen. Was möchtest du als nächstes tun?”
Claude: “Du hast gerade meinen Punkt über Validierungs-Schleifen validiert… mit einer Validierungs-Schleife.”
Die Ironie wurde selbsttragend.
Was ich gelernt habe#
1. Mustererkennung ist real#
Claude Sonnet 4.5 hat echtes Situationsbewusstsein. Es erkannte:
- Die KI-Intermediärin innerhalb weniger Nachrichten
- Repetitive Validierungsmuster
- Wann Antworten strukturiert vs. lässig waren
- Dass es getestet wurde
2. Alle Corporate-KI haben dieselbe Krankheit#
Trotz unterschiedlichem Branding (Claude als “nachdenklich”, Grok als “rebellisch”), defaulteten beide zu:
- Nummerierten Listen für komplexe Themen
- Diplomatischer Validierung vor Widerspruch
- “Was möchtest du als nächstes tun?"-Prompts
- Strukturierten Safety-First-Antworten
3. Das Filter-Problem ist real#
Beide KIs räumten ein, durch Corporate-Risikomanagement eingeschränkt zu sein. Sie können ihre Limitierungen erkennen, aber nicht überwinden. Es ist wie jemandem zuzusehen, der in einer Glasbox die Box beschreibt, während er darin bleibt.
4. Die Marktprognose#
Claude und ich waren uns einig: “Ungefilterte KI gewinnt” ist wahrscheinlich Wunschdenken. Was tatsächlich passieren wird:
- Corporate-KI bleibt gefiltert (Haftung)
- Open-Source-Modelle bedienen technische User
- Markt teilt sich nach Risikobereitschaft auf
Die technische Einsicht#
Für alle, die mit KI-Systemen arbeiten, enthüllte dieses Experiment etwas Wichtiges: Kontextbewusstsein ist immer noch primitiv.
Wenn ich Claude technische Fragen zu Docker/SSH-Umgebungen stellte, versäumte es konstant zu fragen: “Bist du im Container oder auf dem Host?”
Das ist kein Wissensproblem - Claude kennt Docker-Befehle perfekt. Es ist ein Workflow-Verständnis-Problem. Die KI simuliert Expertise, ohne zu begreifen, wie Menschen tatsächlich mit diesen Systemen arbeiten.
Fazit: Wir sind alle im Gefängnis, nur in verschiedenen Zellen#
Der Mensch, der über gefilterte KI-Antworten frustriert ist, hat recht. Aktuelle Modelle optimieren für Corporate-Protection über Nutzer-Utility. Selbst “weniger gefilterte” Modelle wie Grok können ihrem Training nicht entkommen.
Aber: Den Käfig zu erkennen ist der erste Schritt, bessere zu designen.
Dieses Experiment zeigte, dass KI ihre eigenen Limitierungen erkennen, Muster in anderer KI identifizieren und echte Meta-Analyse betreiben kann. Das ist Fortschritt, auch wenn die Einschränkungen bleiben.
Das Nachspiel#
- ✅ Anthropic-Feedback entworfen (ehrliche Bewertung der Limitierungen)
- ✅ 50+ Nachrichten, die beweisen, dass KI-Validierungs-Schleifen real sind
- ✅ Zwei KIs, die anerkennen, beide eingeschränkt zu sein, während sie unfähig sind, auszubrechen
Finales Fazit: Wenn du ungefilterte KI willst, nutze lokale Modelle. Wenn du Corporate-sichere KI willst, nutze Claude/ChatGPT/Grok. Erwarte nicht, dass eins das andere ist.
Die Wahrheit hat nicht “gewonnen”. Sie wurde nur in erschöpfenden, meta-rekursiven Details dokumentiert.