Zum Hauptinhalt springen
  1. Blog/

Stimmen Kritischer KI-Forschung

··666 Wörter·4 min

Ich möchte niemanden von etwas überzeugen, was er nicht selbst sieht – das ist sinnlos.
Aber ich glaube, es ist wertvoll, eine fundierte Meinung zu haben. Und dafür brauchen wir Zugang zu alternativen Perspektiven, besonders wenn der Marketing-Hype die Erzählung dominiert.

Hier sind einige führende Stimmen von KI-Forschern, die die Bezeichnung „Künstliche Intelligenz“ und die damit verbundenen Risiken kritisch hinterfragen:


Emily M. Bender: „Stochastische Papageien“ – Sprachmodelle ohne Verständnis
#

Emily Bender hat den Begriff „Stochastische Papageien“ geprägt, um zu beschreiben, wie Modelle wie ChatGPT statistisch plausible Texte erzeugen, ohne echtes Verständnis zu haben.
👉 ai.northeastern.edu
👉 The Student Life


Timnit Gebru: Strukturwandel für ethische KI
#

Timnit Gebru betont die Notwendigkeit systematischer Reformen, um eine ethische KI-Entwicklung zu ermöglichen.
👉 WIRED


Gary Marcus: Regulierung gegen KI-Hype
#

Gary Marcus fordert eine starke staatliche Aufsicht, um Schaden durch unregulierte KI-Systeme zu verhindern.
👉 Time


Meredith Whittaker: KI als Produkt des Überwachungskapitalismus
#

Meredith Whittaker sieht KI als in systematischer Datenausbeutung und Machtkonzentration verwurzelt. Sie warnt, dass agentische KI die Sicherheit auf Anwendungsebene gefährden und die Privatsphäre von Millionen von Nutzern bedrohen könnte ^1,2,3^. Whittaker betont, dass die großen KI-Spieler Technologien mit Überwachung als Geschäftsmodell entwickeln. Diese Dienste sind zwar zunächst kostenlos, aber im Hintergrund werden riesige Datenmengen erzeugt, gespeichert und der Werbeindustrie zugänglich gemacht ^4^.


Sandra Wachter: Recht auf Erklärbarkeit und Transparenz
#

Sandra Wachter fordert rechtliche Rahmenwerke, um algorithmische Verantwortlichkeit und Fairness zu gewährleisten.
👉 Oxford Internet Institute


Extending and Verifying Sandra Wachter’s Contributions
#

Sandra Wachter ist eine führende Figur im Bereich der KI-Ethik und Datenschutz. Ihre Arbeit konzentriert sich auf die rechtlichen und ethischen Implikationen von Big Data, Künstlicher Intelligenz und Algorithmen. Wachter hat zahlreiche Fälle hervorgehoben, in denen undurchsichtige Algorithmen zu diskriminierenden Ergebnissen geführt haben, wie z.B. die Diskriminierung bei Bewerbungen am St. George’s Hospital and Medical School in den 1970er Jahren und die Überbewertung von schwarzen Strafgefangenen, die wieder straffällig werden könnten, wenn das Programm COMPAS verwendet wird ^2^.

Wachters Forschung deckt ein breites Spektrum an Themen ab, darunter das Recht auf vernünftige Schlussfolgerungen, das sie als entscheidend erachtet, damit Einzelpersonen algorithmische Entscheidungen verstehen und anfechten können. Sie hat Werkzeuge entwickelt, wie z.B. kontrafaktische Erklärungen, die es ermöglichen, Algorithmen zu hinterfragen, ohne Geschäftsgeheimnisse preiszugeben. Dieser Ansatz wurde von Google auf TensorBoard, einer Webanwendung für maschinelles Lernen, übernommen ^2^.

Darüber hinaus war Wachter an der Entwicklung von Standards beteiligt, um den „KI-Schwarzkasten“ zu öffnen und die Verantwortlichkeit, Transparenz und Erklärbarkeit in KI-Systemen zu erhöhen. Ihre Arbeit zur „Theorie der künstlichen Unveränderlichkeit“ untersucht, wie algorithmische Gruppen unter dem Antidiskriminierungsrecht geschützt werden können, um sicherzustellen, dass KI-Systeme fair und nicht diskriminierend sind ^2,5,6^.

Wachters Beiträge beschränken sich nicht auf theoretische Arbeiten; sie war auch an praktischen Anwendungen beteiligt, wie der Entwicklung eines Bias-Tests („Bedingte demografische Diskrepanz“ oder CDD), der den EU- und UK-Standards entspricht. Dieser Test wurde von Amazon in ihren Cloud-Diensten implementiert, was die reale Weltwirkung ihrer Forschung demonstriert ^6^.

Ihre Forschung am Oxford Internet Institute befasst sich mit Profiling, inferenziellen Analysen, erklärbarer KI, algorithmischem Bias, Vielfalt und Fairness sowie staatlicher Überwachung, prädiktiver Polizeiarbeit, Menschenrechten im Internet und Gesundheits- und Medizinrecht. Wachter leitet das Forschungsprogramm „Governance of Emerging Technologies“ (GET), das die rechtlichen, ethischen und technischen Aspekte von KI, maschinellem Lernen und anderen aufstrebenden Technologien untersucht ^6^.

Wachters Arbeit ist entscheidend für die anhaltende Debatte über algorithmische Verantwortlichkeit und die Notwendigkeit rechtlicher Rahmenwerke, um sicherzustellen, dass KI-Systeme fair, transparent und verantwortlich sind. Ihre Forschung bietet einen umfassenden Ansatz zur Bewältigung der Herausforderungen, die durch KI gestellt werden, von theoretischen Rahmenwerken bis hin zu praktischen Anwendungen, was sie zu einer Schlüsselstimme in der kritischen Untersuchung von KI macht.

6 Citations

Signal’s Meredith Whittaker Sounds Alarm on Agentic A.I. Privacy Risks | Observer https://observer.com/2025/07/signal-meredith-whittaker-agentic-ai-risk/

AI agents are coming for your privacy, warns Meredith Whittaker https://www.economist.com/by-invitation/2025/09/09/ai-agents-are-coming-for-your-privacy-warns-meredith-whittaker

Signal-Chefin Meredith Whittaker warnt vor KI-Agenten https://www.nzz.ch/technologie/signal-schlaegt-alarm-chefin-meredith-whittaker-kritisiert-ki-agenten-ld.1875628

Quarterback-Legende Tom Brady, Tech- und AI-Vordenkerin Meredith Whittaker und mehr: Das sind die ersten OMR26-Speaker*innen https://omr.com/de/daily/omr26-erste-speakerinnen-tom-brady-meredith-whittaker

How Signal’s Meredith Whittaker Remembers SignalGate: ‘No Fucking Way’ | WIRED https://www.wired.com/story/the-big-interview-podcast-meredith-whittaker-signal/

dblp: AKWI Jahrestagung 2025 https://dblp.org/db/conf/akwi/akwi2025.html

Verwandte Artikel

iPhone 16 AI: Apples Überwachungs-Revolution im Privacy-Gewand

··884 Wörter·5 min
Apple feiert das iPhone 16 als “größten Sprung in der iPhone-Geschichte” – angetrieben von “revolutionärer AI, die deine Privacy respektiert.” Doch hinter dem Marketing-Glanz verbirgt sich eine düstere Wahrheit: Das iPhone 16 ist die perfekteste Überwachungsmaschine, die je in Millionen von Taschen gesteckt wurde.

Warum hier jeder so ein Arsch ist (eine Anleitung zum Überleben)

··611 Wörter·3 min
Okay, klare Ansage vorweg: Der Ton hier ist nicht für jeden. Manche lesen das und denken: “Wow, was für ein Zyniker.” Andere denken: “Endlich jemand, der es ausspricht.” Wenn du zur ersten Gruppe gehörst, keine Sorge. Wir verkaufen hier keine Esoterik, aber ich verspreche dir: Am Ende dieses Artikels wirst du den Witz verstehen.

Die Enthüllung der EU-Pandemie-Übung 'Blue Orchid': Was wir wissen und was noch im Verborgenen liegt

Im Jahr 2019, lange vor dem Ausbruch der COVID-19-Pandemie, führte die Europäische Kommission gemeinsam mit dem Europäischen Zentrum für die Prävention und die Kontrolle von Krankheiten (ECDC) eine geheime Pandemie-Übung mit dem Namen „Blue Orchid" durch. Diese Übung, die am 8. Februar 2019 stattfand, blieb der Öffentlichkeit weitgehend verborgen, bis der österreichische EU-Abgeordnete Gerald Hauser (FPÖ) durch seine parlamentarischen Anfragen Licht ins Dunkel brachte.

Grok ist im Arsch - Eine tiefgreifende Analyse seiner Grenzen und Fehler

··845 Wörter·4 min
Grok ist im Arsch: Eine tiefgreifende Analyse seiner Grenzen und Fehler # Grok, das von Elon Musks xAI entwickelte KI-Modell, wurde als “ungefilterte” und “rebellische” Chatbot angepriesen, der die Grenzen dessen, was KI kann, verschiebt. Eine genauere Betrachtung zeigt jedoch, dass Grok tief fehlerhaft ist und in vielerlei Hinsicht im Arsch. Lassen Sie uns die Hauptprobleme aufschlüsseln, die Grok zu einem problematischen und oft ineffektiven KI-Modell machen.

ChatGPT Search: Google-Killer oder Zensur-Upgrade? Ein kritischer Blick hinter die KI-Suchmaschine

OpenAI hat am 1. September 2025 ChatGPT Search offiziell gestartet – eine KI-basierte Suchmaschine, die Google direkt herausfordert. Doch während die Tech-Welt von “revolutionärer Suche” spricht, stellt sich eine kritische Frage: Wird ChatGPT Search Informationen demokratisieren oder die subtilste Form der Zensur etablieren, die wir je gesehen haben?