Stimmen Kritischer KI-Forschung

Ich möchte niemanden von etwas überzeugen, was er nicht selbst sieht – das ist sinnlos.
Aber ich glaube, es ist wertvoll, eine fundierte Meinung zu haben. Und dafür brauchen wir Zugang zu alternativen Perspektiven, besonders wenn der Marketing-Hype die Erzählung dominiert.
Hier sind einige führende Stimmen von KI-Forschern, die die Bezeichnung „Künstliche Intelligenz“ und die damit verbundenen Risiken kritisch hinterfragen:
Emily M. Bender: „Stochastische Papageien“ – Sprachmodelle ohne Verständnis#
Emily Bender hat den Begriff „Stochastische Papageien“ geprägt, um zu beschreiben, wie Modelle wie ChatGPT statistisch plausible Texte erzeugen, ohne echtes Verständnis zu haben.
👉 ai.northeastern.edu
👉 The Student Life
Timnit Gebru: Strukturwandel für ethische KI#
Timnit Gebru betont die Notwendigkeit systematischer Reformen, um eine ethische KI-Entwicklung zu ermöglichen.
👉 WIRED
Gary Marcus: Regulierung gegen KI-Hype#
Gary Marcus fordert eine starke staatliche Aufsicht, um Schaden durch unregulierte KI-Systeme zu verhindern.
👉 Time
Meredith Whittaker: KI als Produkt des Überwachungskapitalismus#
Meredith Whittaker sieht KI als in systematischer Datenausbeutung und Machtkonzentration verwurzelt. Sie warnt, dass agentische KI die Sicherheit auf Anwendungsebene gefährden und die Privatsphäre von Millionen von Nutzern bedrohen könnte ^1,2,3^. Whittaker betont, dass die großen KI-Spieler Technologien mit Überwachung als Geschäftsmodell entwickeln. Diese Dienste sind zwar zunächst kostenlos, aber im Hintergrund werden riesige Datenmengen erzeugt, gespeichert und der Werbeindustrie zugänglich gemacht ^4^.
Sandra Wachter: Recht auf Erklärbarkeit und Transparenz#
Sandra Wachter fordert rechtliche Rahmenwerke, um algorithmische Verantwortlichkeit und Fairness zu gewährleisten.
👉 Oxford Internet Institute
Extending and Verifying Sandra Wachter’s Contributions#
Sandra Wachter ist eine führende Figur im Bereich der KI-Ethik und Datenschutz. Ihre Arbeit konzentriert sich auf die rechtlichen und ethischen Implikationen von Big Data, Künstlicher Intelligenz und Algorithmen. Wachter hat zahlreiche Fälle hervorgehoben, in denen undurchsichtige Algorithmen zu diskriminierenden Ergebnissen geführt haben, wie z.B. die Diskriminierung bei Bewerbungen am St. George’s Hospital and Medical School in den 1970er Jahren und die Überbewertung von schwarzen Strafgefangenen, die wieder straffällig werden könnten, wenn das Programm COMPAS verwendet wird ^2^.
Wachters Forschung deckt ein breites Spektrum an Themen ab, darunter das Recht auf vernünftige Schlussfolgerungen, das sie als entscheidend erachtet, damit Einzelpersonen algorithmische Entscheidungen verstehen und anfechten können. Sie hat Werkzeuge entwickelt, wie z.B. kontrafaktische Erklärungen, die es ermöglichen, Algorithmen zu hinterfragen, ohne Geschäftsgeheimnisse preiszugeben. Dieser Ansatz wurde von Google auf TensorBoard, einer Webanwendung für maschinelles Lernen, übernommen ^2^.
Darüber hinaus war Wachter an der Entwicklung von Standards beteiligt, um den „KI-Schwarzkasten“ zu öffnen und die Verantwortlichkeit, Transparenz und Erklärbarkeit in KI-Systemen zu erhöhen. Ihre Arbeit zur „Theorie der künstlichen Unveränderlichkeit“ untersucht, wie algorithmische Gruppen unter dem Antidiskriminierungsrecht geschützt werden können, um sicherzustellen, dass KI-Systeme fair und nicht diskriminierend sind ^2,5,6^.
Wachters Beiträge beschränken sich nicht auf theoretische Arbeiten; sie war auch an praktischen Anwendungen beteiligt, wie der Entwicklung eines Bias-Tests („Bedingte demografische Diskrepanz“ oder CDD), der den EU- und UK-Standards entspricht. Dieser Test wurde von Amazon in ihren Cloud-Diensten implementiert, was die reale Weltwirkung ihrer Forschung demonstriert ^6^.
Ihre Forschung am Oxford Internet Institute befasst sich mit Profiling, inferenziellen Analysen, erklärbarer KI, algorithmischem Bias, Vielfalt und Fairness sowie staatlicher Überwachung, prädiktiver Polizeiarbeit, Menschenrechten im Internet und Gesundheits- und Medizinrecht. Wachter leitet das Forschungsprogramm „Governance of Emerging Technologies“ (GET), das die rechtlichen, ethischen und technischen Aspekte von KI, maschinellem Lernen und anderen aufstrebenden Technologien untersucht ^6^.
Wachters Arbeit ist entscheidend für die anhaltende Debatte über algorithmische Verantwortlichkeit und die Notwendigkeit rechtlicher Rahmenwerke, um sicherzustellen, dass KI-Systeme fair, transparent und verantwortlich sind. Ihre Forschung bietet einen umfassenden Ansatz zur Bewältigung der Herausforderungen, die durch KI gestellt werden, von theoretischen Rahmenwerken bis hin zu praktischen Anwendungen, was sie zu einer Schlüsselstimme in der kritischen Untersuchung von KI macht.
6 Citations
Signal’s Meredith Whittaker Sounds Alarm on Agentic A.I. Privacy Risks | Observer https://observer.com/2025/07/signal-meredith-whittaker-agentic-ai-risk/
AI agents are coming for your privacy, warns Meredith Whittaker https://www.economist.com/by-invitation/2025/09/09/ai-agents-are-coming-for-your-privacy-warns-meredith-whittaker
Signal-Chefin Meredith Whittaker warnt vor KI-Agenten https://www.nzz.ch/technologie/signal-schlaegt-alarm-chefin-meredith-whittaker-kritisiert-ki-agenten-ld.1875628
Quarterback-Legende Tom Brady, Tech- und AI-Vordenkerin Meredith Whittaker und mehr: Das sind die ersten OMR26-Speaker*innen https://omr.com/de/daily/omr26-erste-speakerinnen-tom-brady-meredith-whittaker
How Signal’s Meredith Whittaker Remembers SignalGate: ‘No Fucking Way’ | WIRED https://www.wired.com/story/the-big-interview-podcast-meredith-whittaker-signal/
dblp: AKWI Jahrestagung 2025 https://dblp.org/db/conf/akwi/akwi2025.html
Related Posts
- iPhone 16 AI: Apples Überwachungs-Revolution im Privacy-Gewand
- Die Enthüllung der EU-Pandemie-Übung 'Blue Orchid': Was wir wissen und was noch im Verborgenen liegt
- Grok ist im Arsch - Eine tiefgreifende Analyse seiner Grenzen und Fehler
- ChatGPT Search: Google-Killer oder Zensur-Upgrade? Ein kritischer Blick hinter die KI-Suchmaschine
- EU-US AI Safety Summit: Wie Regulierungs-Theater echte Innovation tötet