Meine Rezension zum Buch „Data Feminism“ von Catherine D’Ignazio und Lauren F. Klein [zotpressInText item=“{4848:D4MXPE4G}“] gliedert sich in zwei Blogbeiträge. Der erste Teil (dieser Artikel hier) ist eine Zusammenfassung des Buchinhalts. Im zweiten Teil gehe ich auf zwei Kapitel im Anhang ein, die zeigen, wie ein Buch entsprechend der eigenen formulierten Ziele auditiert werden kann.
Kurzfassung des Inhalts – TL;DR1
TL;DR
TL;DR, „Too long; didn’t read“ ist eine Abkürzung für „zu lang; nicht gelesen“ und wird im Internetjargon oft verwendet, um eine Zusammenfassung eines Online-Beitrags oder Nachrichtenartikels einzuleiten. (Wikipedia)
Im Buch wird Data Feminism (Datenfeminismus) als ein theoretischer Bezugsrahmen der Data-Science für die Gewinnung, Analyse und Anwendung von Daten vorgestellt. Das Buch „Data Feminism“ (Datenfeminismus) stellt einen alternativen theoretischen Bezugsrahmen für Data-Science vor. Die Autorinnen interpretieren dabei Data-Science durch die Linse des intersektionalen Feminismus und des historischen Kampfes um Gerechtigkeit.
Die zentrale These des Buches: Daten sind nicht neutral, sondern ein Werkzeug, das tief mit Macht verwoben ist und dazu eingesetzt werden kann, Ungleichheit zu verstärken oder aber auch zu bekämpfen. Mit dem Mythos, dass Daten objektiv und neutral sind, ignoriert traditionelle Datenwissenschaft häufig die aktuelle ungleiche Machtverteilung in der Welt und damit den beherrschenden Einfluss dominanter Gruppen (typischerweise Weiße, Männer, Nichtbehinderte und Personen aus dem Globalen Norden). Data Feminism versucht, dies durch drei Strategien zu korrigieren:
- Intersektionalität: Unterdrückungssysteme (Rassismus, Sexismus, Klassismus usw.) greifen ineinander und können daher nicht isoliert voneinander analysiert werden.
- Validierung mehrerer Wissensformen: Nicht nur quantitative („objektive“) Daten sind wichtig, sondern auch Emotionen, Verkörperung (embodiment) und gelebte Erfahrung müssen als kritische Datenquellen genutzt werden.
- Arbeit sichtbar machen: Statt bloß dem Mythos des einsamen „Daten-Gurus“ oder „Tech-Genies“ zu frönen, gilt es, die häufig unsichtbare menschliche Arbeit bei der Entstehung, beim Sammeln, Bereinigen und Analysieren von Daten in den Blick zu nehmen.

Warum Feminismus?
Warum wird Intersektionalität, also die Diskriminierung in mehreren sich überlappenden Bereichen, als spezifisch feministisch bezeichnet? Würde dieser Ansatz nicht auch für (z. B. Schwarze, Behinderte oder sozial Schwache) Männer gelten?
Intersektionalität wird oft als feministisch begriffen, weil sie ursprünglich aus der feministischen Bewegung entstand und sich speziell auf die Erfahrungen von Frauen – insbesondere Frauen mit mehrfachen Benachteiligungen – konzentriert. Der Begriff wurde 1989 von Kimberlé Crenshaw geprägt, um zu zeigen, wie schwarze Frauen in den USA durch die Überlappung von Rassismus, Sexismus und Klassismus besonders benachteiligt werden. Dies war eine direkte Reaktion auf die Grenzen traditioneller feministischer Bewegungen, die oft nur die Erfahrungen weißer, gebildeter Frauen berücksichtigten.
Ein intersektionaler Ansatz kann aber grundsätzlich auf alle Identitäten angewendet werden – er ist nicht auf Frauen beschränkt. Dennoch wird er als feministisch bezeichnet, weil er sich aus der Auseinandersetzung mit Geschlechterungleichheit entwickelt hat und oft von Frauen in der Bewegung für Gleichstellung, Gerechtigkeit und Befreiung eingesetzt wird. Der Schwerpunkt liegt auf der Entmythologisierung von „Gleichheit“ als universeller Erfahrung und auf der Anerkennung verschiedener, ineinander verschachtelter Diskriminierungen.
Die beiden Autorinnen gehen davon aus, dass Datenfeminismus nicht nur etwas für Frauen oder Gebildete (AkademikerInnen) ist, sondern ein notwendiger Ansatz für alle, die Daten nutzen, um die Welt zu verstehen oder zu verändern. Data Science wird dabei als eine politische Aktivität gesehen, die entweder dazu dient, den Status quo aufrechtzuerhalten, oder aber als Waffe für soziale Gerechtigkeit und die Befreiung für andere als auch für sich selbst (co-liberation) dienen kann.
Im Buch werden sieben Grundprinzipien des Datenfeminismus beschrieben, die jeweils ein eigenes Kapitel darstellen.
1. Kapitel: Macht
Im ersten Kapitel aus Data Feminism wird untersucht, wie Macht in der Datenwissenschaft und ihren Anwendungen funktioniert.
Die Herrschaftsmatrix
Data Science spiegelt nicht nur bestehende Machtstrukturen wider, sondern verstärkt sie sogar. Die Autorinnen unterscheiden in dieser Herrschaftsmatrix (Matrix of Domination) vier miteinander verbundene Bereiche:
- Strukturell: Gesetze und Richtlinien, die Unterdrückung kodifizieren
- Disziplinar: Bürokratische Systeme, die diese Strukturen durchsetzen
- Hegemonial: Kulturelle Narrative und Medien, die Unterdrückung normalisieren
- Zwischenmenschlich: Individuelle gelebte Erfahrungen dieser Systeme
Der entscheidende Punkt dabei ist, dass dominante Gruppen (typischerweise wohlhabende weiße Männer) systematisch begünstigt und gleichzeitig Minderheitsgruppen benachteiligt werden. Menschen in dominanten Positionen mangelt es an „dem Empirismus der gelebten Erfahrung“. Sie haben daher Schwierigkeiten, Voreingenommenheit in den von ihnen entworfenen oder benutzten Systemen zu erkennen.
Herrschaft und Data Science
Die Herrschaftsmatrix spiegelt sich in Data Science in fünf miteinander verknüpften Aspekten:
- Unterrepräsentation: Data Science wird von weißen Elite-Männern dominiert, deren Perspektiven bestimmen, was gemessen wird, wie es gemessen wird und deren Interessen bedient werden.
- Voreingenommene Datensätze: Trainingsdaten spiegeln häufig historische Ungleichheiten wider (z. B. wurde die Gesichtserkennung auf 78 % männliche und 84 % weiße Gesichter trainiert).
- Fehlende Datensätze: Kritischen Daten über marginalisierte Gruppen wird keine Priorität eingeräumt; sie werden daher kaum erfasst (z. B. Müttersterblichkeit, Femizide, polizeiliche Überwachungsinstrumente).
- Überwachungsasymmetrie: Minorisierte Gruppen werden stärker überwacht und kontrolliert (z. B. prädiktive Kindesmissbrauchsmodelle, die auf arme Familien abzielen, Menschen aus Minderheitsgruppen werden polizeilich öfter angehalten und verurteilt).
- Extraktive Ziele: Data Science wird hauptsächlich in drei Bereichen finanziert und ausgeübt: Universitäten (Wissenschaft), Regierungen (Kontrolle und Steuerung) und Unternehmen (Profit). Damit werden andere mögliche Ziele der Datenwissenschaft, wie Gerechtigkeit oder Stärkung der Gemeinschaft, vernachlässigt.
Die Autorinnen bringen viele konkrete Beispiele für das Wirken der Herrschaftsmatrix; zeigen aber auch in Gegenbeispielen Strategien auf, wie marginalisierte Gemeinschaften die Datenagentur zurückerobern können.
Fazit
Um die Macht zu untersuchen, müssen W-Fragen gestellt werden:
- Für wen funktionieren Daten?
- Wer profitiert?
- Wessen Prioritäten herrschen vor?
Prinzip Nr. 1: Macht untersuchen
Data Feminism beginnt mit der Analyse der Funktionsweise von Macht in der Welt.
2. Kapitel: Macht hinterfragen
Vier strategische Ansätze
Daten sind niemals neutral. Statt aber Fehler, Einseitigkeit oder Unvollkommenheit der Datenanalyse zu kritisieren, müssen Machtverhältnisse aufgezeigt und hinterfragt werden. Die Infragestellung von Machtverhältnissen erfordert jedoch ein Umdenken, das über individuelle „Voreingenommenheit“ hinausgeht und stattdessen die strukturelle Unterdrückung thematisiert – die Matrix der Herrschaft, die bestimmt, wessen Daten erhoben, wie sie interpretiert und wessen Interessen sie dienen. „Voreingenommenheit“ verortet Probleme in Einzelpersonen oder fehlerhaften Systemen; Unterdrückung hingegen erkennt strukturelle, historische Wurzeln an. Voreingenommenheit allein zu bekämpfen, reicht nicht aus – es ist nur ein „Pflaster“ für systemische Probleme.
Wieder stellten die Autorinnen viele Beispiele und Gegenbeispiele dar. Um Macht infrage zu stellen, helfen die folgenden vier Ansätze:
- Wenn Institutionen Probleme nicht dokumentieren, dann müssen Gegendaten gesammelt werden.
- Es gilt nicht nur, Benachteiligungen aufzudecken, sondern die dahinterstehenden Systeme oder Institutionen müssen zur Rechenschaft gezogen werden.
- Es geht nicht bloß um „Fairness“, sondern um Gerechtigkeit und Gleichheit (Privilegienabbau).
- Mit Gerechtigkeit als Grundlage gilt es eine alternative Datenwissenschaft zu entwickeln, zu lehren und anzuwenden.
Lehren als Widerstand
Um in meiner inhaltliches Zusammenfassung nicht immer nur auf Beispiele zu verweisen, oder sie bloß in einem Halbsatz zu erwähnen, möchte nachfolgend ein Beispiel ausführlicher darstellen.
Das Projekt „Local Lotto“ veranschaulicht transformative Datenpädagogik: Schülerinnen und Schüler in Brooklyn und der Bronx untersuchten, ob staatliche Lotterien einkommensschwachen Vierteln schaden. Anstatt abstrakter technischer Schulungen beteiligten sie sich an partizipativer Forschung, Gemeindedialogen und gerechtigkeitsorientierter Problemlösung.

Obwohl das Projekt pädagogisch erfolgreich war offenbarte es auch Spannungen: Externe Pädagogen (weiß, asiatisch) unterrichteten marginalisierte Gemeinschaften über deren eigenen Wohlviertel – wodurch die Gefahr bestand, dass Defizit- bzw. Opfernarrative verstärkt wurden.
Darin zeigt sich eine generelle Gefahr bei allen vier oben dargelegten Gegenstrategien: Der Nachweis von Unterdrückung kann zwar aussagekräftig, aber nicht ausreichend sein. Marginalisierte Gemeinschaften kennen ja ihre eigene Unterdrückung bereits; die Last sollte daher nicht auf ihnen liegen, dies den Machthabenden immer wieder beweisen zu müssen. Außerdem können datengestützte „Beweise“ ungewollt schädliche Stereotype verstärken, wenn sie Gemeinschaften auf ihre „Probleme“ und Opferrolle reduzieren, anstatt ihre Handlungsfähigkeit und Kreativität anzuerkennen.
Fazit
Um Machtstrukturen zu hinterfragen, bedarf es:
- nicht nur technischer Lösungen, sondern inhaltlich fundierter Arbeit zu Geschichte, Kultur und Kontext.
- einer kritischen Reflexion, die eigene Position innerhalb von Machtstrukturen erkennen.
- einer Neudefinition von Erfolg jenseits von Effizienzkennzahlen, hin zu Vertrauensbildung, Machtteilung und gegenseitiger Transformation.
- der Erkenntnis, dass Data Science nicht neural, sondern inhärent politisch und wertbeladen ist.
Das Kapitel argumentiert letztlich, dass Datengerechtigkeit ein Prozess und kein Ziel ist – ein Prozess, der Unbehagen, Iteration und die aktive Handlungsbereitschaft zur Abschaffung der systemimmanenten Unterdrückersysteme erfordert.
Prinzip Nr. 2: Machtstrukturen in Frage stellen.
Data Feminism setzt sich dafür ein, ungleiche Machtstrukturen zu hinterfragen und auf Gerechtigkeit hinzuarbeiten.
Kapitel 3: Viele Wissensformen
Situiertes Wissen
Die tabellarische Darstellung von Daten und ihre Visualisierung soll möglichst minimalistisch, emotional distanziert und „objektiv“ erfolgen. Dieses Maxim basiert auf der Vorstellung, dass Quantifizierung Distanz und Objektivität schafft. Doch selbst die einfachsten Tabellen oder Grafiken – Tabellenkalkulationen, simple Balkendiagramme – beinhalten redaktionelle Entscheidungen darüber, was hervorgehoben und was ausgeblendet wird.
Donna Haraways Konzept des „Gott-Tricks“ – oder mit den Worten von Thomas Nagel „Die Sicht vom Nirgendwo“ (The View from Nowhere) – verschleiert die Menschen, Methoden und die Komplexität hinter Visualisierungen. Es erzeugt die Illusion universeller Objektivität, obwohl alles Wissen tatsächlich „situiert“ ist (von bestimmten Personen in bestimmten Kontexten produziert). Diese falsche Universalität kommt insbesondere den ohnehin schon Mächtigen zugute.
Unterschiedliche Perspektiven: Daten sind nicht neutral


Das Beispiel aus der New York Times, in dem die Darstellung derselben Arbeitsmarktdaten durch Demokraten und Republikaner verglichen wird, zeigt, wie identische Daten durch die Wahl der Darstellungsweise (Titel, Farben, Bezugslinien) gegensätzliche Geschichten erzählen können.
Die Grafik der Demokraten betont den Rückgang der Arbeitslosigkeit – im Titel, durch den dicken blauen Pfeil nach unten und den Hinweis „Der Rückgang am Freitag war stärker als erwartet“. Die Grafik der Republikaner hingegen hebt hervor, dass die Arbeitslosigkeit in den letzten drei Jahren konstant hoch war – durch die Referenzlinie „8 Prozent Arbeitslosigkeit“, die Verwendung eines Flächendiagramms anstelle eines Liniendiagramms und natürlich den Titel der Grafik. Keine der beiden Grafiken ist neutral, aber beide stellen Fakten aus unterschiedlichen Perspektiven dar.
Emotionen als Erkenntniswerkzeug
Anstatt Emotionen als Störfaktor in der Datenkommunikation zu betrachten, können sie die Erkenntnis unterstützen. Ein gutes Beispiel zur Illustration ist das Periscopic Projekt:
Periscopics Datenvisualisierung „U.S. Gun Deaths“ präsentiert die jährlichen Opfer von Schusswaffenmorden interaktiv. Statt langweiliger Balkendiagramme werden die gelebten (orange) und die verlorenen Lebensjahre (grau) dargestellt. Die Visualisierung zielt darauf ab, Statistiken menschlicher zu gestalten, indem sie individuelle Opferdaten wie Alter, ethnische Zugehörigkeit und Verwandtschaftsverhältnis zum Täter anstelle von reinen Zahlen anzeigt. Für das Jahr 2010 verdeutlichte die Grafik, dass fast 10.000 Menschen durch Schusswaffen getötet wurden, was zu über 400.000 verlorenen Lebensjahren führte. Bis 2013 verzeichnete die aktualisierte Visualisierung über 11.400 Todesfälle und unterstreicht damit die kumulativen emotionalen und statistischen Auswirkungen von Waffengewalt in den Vereinigten Staaten.
Fazit
Die Autorinnen behaupten nicht, dass alle Visualisierungen emotional wirken sollen oder dass der „Gott-Trick“ niemals angewendet werden sollte. Stattdessen plädieren sie für kontextbezogenes Design: Datenvisualisierungen sollten ein ganzheitliches Ideal verfolgen und eine Balance zwischen Vernunft und Emotion anstreben. Statt „objektiver“ Darstellungen sollte bewußt die Integration marginalisierter Perspektiven integriert werden. Es geht dabei auch um die Anerkennung, dass die für eine Datenanalyse notwendige Wissensarbeit von Individuen von spezifischen Positionen mit unterschiedlichen Perspektiven geleistet wird.
Prinzip Nr. 3: Wertschätzung von Emotionen und Körperlichkeit.
Data Feminism lehrt uns, vielfältige Wissensformen zu schätzen, darunter auch Erfahrungswissen, das von Menschen als lebendes und fühlendes Wesen in der Welt stammt.
Kapitel 4: Was gezählt wird, zählt
Klassifikationssysteme kritisch hinterfragen
Die Autorinnen von Data Feminism argumentieren, dass Klassifikationssysteme keine neutralen technischen Entscheidungen sind; sie sind vielmehr eine Infrastruktur, die widerspiegelt, wer Macht besitzt und wessen Interessen bedient werden. Wenn Menschen nicht in bestehende Kategorien passen (wie beispielsweise nicht-binäre Personen), werden sie in den Daten unsichtbar – mit realen Konsequenzen für Politik, Ressourcen und Sicherheit:
- Binäre Kategorien sind nicht natürlich, sondern kontruiert. Die Geschlechterbinarität entstand, wie auch die Kategorien „Rasse“ und „Sex“, in spezifischen historischen Momenten (Europa der Aufklärung, Kolonialexpansion) und wurde von den Machthabenden geprägt. Diese Systeme werden später dann „naturalisiert“ – bis wir vergessen, dass sie bewusst gewählt wurden, und sie nicht mehr hinterfragen.
- Klassifizierung hat konkrete Konsequenzen. Klassifikationssysteme begünstigen systematisch einige Gruppen, während sie andere benachteiligen. Klassifikationssysteme – insbesondere binäre Kategorien – kodieren und perpetuieren Machtungleichgewichte.
- Das Paradoxon der Sichtbarkeit: Gezählt zu werden kann hilfreich sein (Sichtbarkeit für Interessenvertretung) oder schädlich (Ausspähung marginalisierter Gruppen). Es gibt keine allgemeingültige Antwort – der Kontext entscheidet darüber, ob Zählen ethisch vertretbar ist.
Beispiel: Gesichtererkennung
Als Joy Buolamwini, eine ghanaisch-amerikanische Doktorandin am MIT, an einem Studienprojekt mit Software für Gesichtserkennung arbeitete, wurde sie mit einem Problem konfrontiert. Die Software konnte Buolamwinis Gesicht nicht erkennen (wobei „erkennen“ bedeutet, dass sie ein Gesicht im Bild erkannte, ähnlich wie eine Handykamera ein Quadrat um das Gesicht einer Person im Bildausschnitt zeichnet). Bei ihren Mitwirkenden hingegen wurde die Gesichter problemlos erkannt. Als Buolamwini ein Gesicht auf die Innenfläche ihrer Hand zeichnete und vor die Kamera hielt, wurde das Gesicht ebenfalls erkannt. Es kam also gar nicht auf die Details an, sondern dass die anderen Teammitglieder, deren Gesichter erkannt wurde, so wie auch ihre Innenfläche der Hand weiß waren. Um dies zu testen, setzte Buolamwini eine weiße Maske auf und verwendete quasi „Whitefacing“. Das System erkannte die Gesichtszüge der Maske einwandfrei! [zotpressInText item=“{4848:QPTER4M3}“]

weiße Maske tragen, damit das Gesichtserkennungsprogramm ihr Gesicht erkannte.
Bei der genaueren Analyse des Codes und der Vergleichsdaten dieser Systeme entdeckte Buolamwini, dass der Datensatz, mit dem viele Gesichtserkennungsalgorithmen getestet werden, zu 78 Prozent aus männlichen und zu 84 Prozent aus weißen Gesichtern besteht. Eine intersektionale Analyse eines anderen Testdatensatzes, bei der Geschlecht und Hauttyp gemeinsam betrachtet wurden, ergab, dass nur 4 Prozent der Gesichter in diesem Datensatz weiblich und dunkelhäutig waren. In ihrer Evaluierung von drei kommerziellen Systemen zeigten Buolamwini und die Informatikerin Timnit Gebru, dass dunkelhäutige Frauen bis zu 44-mal häufiger falsch klassifiziert wurden als hellhäutige Männer. Es ist daher nicht verwunderlich, dass die Software Buolamwinis Gesicht nicht erkannte: Sowohl die Trainingsdaten als auch die Vergleichsdaten beschränken den Anteil farbiger Frauen im Gesamtdatensatz auf einen verschwindend geringen Anteil.
Fazit
Die Autorinnen plädieren für bewusste, kontextbezogene und machtsensible Ansätze zur Datenerhebung und -klassifizierung. Dabei können folgende Strategien hilfreich sein:
- Überdenken, ob binäre Kategorien überhaupt notwendig sind.
- Datenerhebung nur mit Einwilligung der Betroffenen.
- Auf potenzielle Schäden der Erhebung ausdrücklich hinweisen.
- Die Daten zur Rechenschaftspflicht und Aufarbeitung der gesellschaftlichen Dominanzverhältnisse nutzen (= Rückgewinnung vergessener Geschichten).
- Visualisierungskonventionen, die Hierarchien verstärken, hinterfragen und kritisieren.
- Betroffenen in die Gestaltung der Datenerhebung und -auswertung einbeziehen.
Prinzip Nr. 4: Binäre Kategorien und Hierarchien überdenken.
Data Feminism erfordert, dass wir die binäre Geschlechterordnung sowie andere Systeme der Zählung und Klassifizierung, die Unterdrückung perpetuieren, in Frage stellen.
Kapitel 5: Pluralismus leben
Bereinigte Daten (tidy data)?
Das Kapitel hinterfragt die weit verbreitete Annahme, Daten müssten vor der Analyse „bereinigt“ und „aufgeräumt“ werden. Obwohl diese Sichtweise den Diskurs in der Datenwissenschaft dominiert [zotpressInText item=“{4848:KZRYYUPH}“], argumentieren die beiden Autorinnen, dass das „Säubern“ wichtige Kontextinformationen verschleiern und vielfältige Perspektiven unterdrücken können.
Ein Kernproblem bei der Bereinigung besteht darin, dass die dem Kontext fremden Analystinnen und Analysten keinen Bezug zum ursprünglichen Kontext der Daten haben. So können bestimmte Etiketten (Tags) eine wichtige Rolle bei den unmittelbar damit Beschäftigten spielen, deren Bedeutung aber für Außenstehende nicht nachvollziehbar sind. Die Datenbereinigung zerstört diesen Kontextreichtum oft unwiderruflich.
Der Mythos der Datengenies
Dieses Kapitel kritisiert die Mythenbildung um Datenwissenschaftler*innen als einsame „Einhörner“, „Zauberer“, „Ninjas“ und „Rockstars“ – Metaphern, die die Zusammenarbeit verschleiern und geschlechtsspezifische sowie rassistische Annahmen beinhalten. Diese Mythologie ermöglicht zudem „epistemische Gewalt“, bei der die Wissensformen dominanter Gruppen lokale und indigene Perspektiven verdrängen.
Gemeinwohl vs. gemeinsame Befreiung („co-liberation“)
Die Autorinnen sehen selbst in „gut gemeinten“ Datensätzen einen kritischen Aspekt und unterscheiden deshalb:
- Daten für das Gemeinwohl: Diese Daten werden ohne die sie betreffenden Gruppen zu befragen, von Expert*innen „abgesaugt“. Gemeinwohl wird hier von außen bevormundend bzw. paternalistisch definiert.
- Daten für die gemeinsame Befreiung: Diese Datensätze sind nicht nur gemeinschaftlich getragen, sondern beinhalten Aspekte expliziter Machtteilung, Wissenstransfer (von Expert*innen zu Beteiligte) und dienen in erster Line dem Aufbau sozialer Infrastruktur, der Stärkung der Gemeinsacht.
Dass solche Ziele auch unter den herrschenden Bedingungen (zumindest teilweise) umgesetzt werden können, zeigen Beispiele aus der Praxis wie das Anti-Zwangsräumung (Delogierungs-) Project (Anti-Eviction Mapping Project).

Fazit
Die Kernbotschaft dieses Kapitel ist es, dass sinnvolle Datenarbeit Transparenz, Reflexivität und echte Machtteilung mit betroffenen Gemeinschaften erfordert. In einigen Beispielen (wie dem Anti-Eviction Mapping Project) wird gezeigt, wie pluralistische Prozesse marginalisierte Stimmen in den Mittelpunkt rücken und damit die Kapazitäten von Gemeinschaften stärken können, ohne lokales Wissen oder Beziehungen zu opfern.
Statt über neutrale Datensätze (datasets) zu sprechen, sollten wir auf Einstellungen zu den Daten (data settings) fokussieren.
Prinzip Nr. 5 : Pluralismus leben.
Data Feminism betont, dass das umfassendste Wissen aus der Synthese verschiedener Perspektiven entsteht, wobei lokalen, indigenen und erfahrungsbasierten Wissensformen Priorität einzuräumen ist.
Kapitel 6: Zahlen sprechen nicht für sich selbst
Daten als Machtprodukte
Dieses Kapitel aus Data Feminism argumentiert, dass Daten niemals neutral oder objektiv sind – sie entstehen aus spezifischen sozialen, politischen und historischen Kontexten, die grundlegend prägen, was sie repräsentieren und wie sie interpretiert werden sollten. Wenn der Kontext bei der Produktion, Erhebung und Analyse von Daten vernachlässigt wird, dann wird häufig die Aussagekraft und Reichweite der Daten in ihrer Interpretation überschätzt.
Ein drastisches Beispiel war 2014 die Auswertung und Interpretation der Chibok-Entführungen. Chibok ist der Name für eine Region und einer Stadt im Bundesstaat Borno, Nigeria, die unrühnlich bekannt wurde wegen der Entführung von 276 Schulmädchen durch Boko Haram im Jahr 2014. In einem Artikel des renommierten, aber inzwischen geschlossenen, Webportals FiveThirtyEight wurden an Hand der Daten von GDELT (Global Database of Events, Language and Tone) von 3,608 Kidnappings von Schulmädchen, die es angeblich bereits 2013 gab, berichtet und mit Detansätze und Grafiken belegt.
GDELT is the largest, most comprehensive, and highest resolution open database of human society ever created. Creating a platform that monitors the world’s news media from nearly every corner of every country in print, broadcast, and web formats, in over 100 languages, every moment of every day and that stretches back to January 1, 1979 through present day, with daily updates, required an unprecedented array of technical and methodological innovations, partnerships, and whole new mindsets to bring this all together and make it a reality (https://www.gdeltproject.org/about.html).
Entscheidend bei der obigen vollmundigen Eigenschreibung ist das „Monitoring deer Weltnachrichten“. Weil bestimmte heraussragende Ereignisse gleichzeitig von vielen Zeitungen und Nachrichten-Portalen berichtet werden, kommt es zu unzählichen Dopplemeldungen. Mit den Daten von GDELT kann daher anhand der Anzahl der Medienberichterstattungen nicht auf die reale Zahl der Vorkommnisse geschlossen werden.
Die Autorinnen führen dazu den Begriff „Big Dick Data“ ein – Projekte, die ihre Fähigkeiten überschätzen, den Kontext ignorieren und den Umfang fetischisieren.
Kontext ist unerlässlich
Daten entstehen unter gewissen Bedingungen. Um Daten zu verstehen, müssen daher folgende Fragen gestellt werden:
- Wer hat die Daten erstellt?
- Wer hat die Daten bereinigt?
- Wer hat die Daten interpreitert.
- Unter welchen Umständen wurden die Daten erstellt, bereinigt und interpretiert?
- Welche Anreize prägten die Datenerhebung?
Daten kommen „bereits verarbeitet“ an – geprägt von komplexen sozialen und politischen Prozessen. „Rohdaten“ sind ein Mythos. Die beiden Autorinnen kritisieren die Behauptung, dass Zahlen für sich selbst sprechen und argumentieren stattdessen, dass die Verweigerung der Berücksichtigung des Kontextes selbst ein Machtspiel ist, das strukturelle Ungleichheit verschleiert.
Werkzeuge um Kontext zu genieren
Um Kontext zu generieren, bedarf es einer Infrastruktur und Werkzeuge. Das Kapitel erörtert neue Instrumente (Datenbiografien, Datenblätter für Datensätze, Datenbenutzerhandbücher), die entwickelt wurden, um Daten Kontext zu verleihen. Im Kapitel wird dazu ein entscheidende Frage aufgeworden, die leider meistens unbeantwortet bleibt: Wer ist für die Bereitstellung von Kontext verantwortlich?
- Herausgeber*innen?
- Nutzer*innen?
- Vermittler*innen.
Solange Kontext nicht genauso ernst genommen und finanziert wird wie die Veröffentlichung der Daten, wird Kontextarbeit die Ausnahme bleiben und nicht zum Standard gehören.
Fazit
Zahlen sprechen nicht für sich selbst; sie erfordern eine aktive Interpretation, die auf dem Verständnis von Machtungleichgewichten, fehlenden Daten, Anreizen bei der Datenerhebung und den gelebten Erfahrungen derjenigen basiert, die die Daten repräsentieren.
Prinzip Nr. 6: Kontext berücksichtigen.
Data Feminism betont, dass Daten nicht neutral oder objektiv sind. Sie sind das Produkt ungleicher sozialer Verhältnisse, und dieser Kontext ist unerlässlich für eine korrekte und ethische Analyse.
Kapitel 7: Datenarbeit sichtbar machen
Formen versteckter Arbeit
Datenprodukte (Visualisierungen, Algorithmen, Apps) wirken perfekt und vollständig, doch das riesige Netzwerk menschlicher Arbeit, das dahintersteckt, bleibt verborgen. Diese Unsichtbarkeit hat reale Konsequenzen: Die Arbeit wird nicht anerkannt, unterbezahlt und oft von Frauen und People of Color geleistet. Die Autorinnen führen dieses Muster auf historische Konzepte wie „Reproduktionsarbeit“ und die Bewegung „Lohn für Hausarbeit“ zurück und zeigen, wie die heutige Datenökonomie ältere Ausbeutungsstrukturen reproduziert.
Die Autorinnen zählen drei Formen versteckter Arbeit in Datenprodukten auf:
- Datenproduktion: Darunter fallen Crowdsourcing, Dateneingabe, Annotation, Inhaltsmoderation – die oft auf Plattformen wie Amazon Mechanical Turk – gratis oder für weniger als den Mindestlohn von einer globalen Belegschaft ausgeführt werden.
Diese unsichtbare Arbeit findet sich überall im Internet, wie die digitale Arbeitstheoretikerin Tiziana Terranova verdeutlicht hat. - Emotionale und affektive Arbeit: Darunter fallen Gefühle managen, Wut verarbeiten, Diskriminierung begegnen – eine Form von Arbeit, die selten überhaupt als Arbeit anerkannt wird. Beispiele hierfür sind , wie Callcenter-Mitarbeiter und andere technische Support-Spezialisten neben technischem Fachwissen auch affektive und emotionale Arbeit leisten müssen, um den Ärger verärgerter Kunden aufzufangen (affektive Arbeit), deren Mitgefühl zu erwidern (emotionale Arbeit) und ihnen dann vielleicht auch noch beispielsweise bei der Konfiguration ihres WLAN-Routers zu helfen (technisches Fachwissen).
- Fürsorgearbeit: Darunter fallen pflegende, erhaltende und unterstützende Tätigkeiten, die systematisch unterbewertet werden, weil sie von Mitgefühl und nicht von Gewinnstreben motiviert sind. Neben den bekannten Beispielen von Erzieher*innen und Pflegepersonal, gehört – bezogen auf Data Science – fallen darunter auch Personal in Bibliotheken, Archive und Kurator*innen weil ihre Arbeit darauf abzielt, den Zugang zu zukünftigem Wissen zu ermöglichen.
They say it’s friendship. We say it’s unwaged work. With every like, chat, tag or poke our subjectivity turns them a profit. They call it sharing. We call it stealing.
WagesforFacebook.com : Eine aktualisierte Version des Arguments „Lohn für Hausarbeit“ für eine neue Form unsichtbarer Arbeit im digitalen Zeitalter.
Die Autorinnen argumentieren, dass es unerlässlich ist, diese versteckte Arbeit sichtbar zu machen, um für sie Anerkennung, angemessene Bewertung und das Verständnis der wahren menschlichen und planetaren Kosten von Technologie zu bekommen.
Fazit
Dieses Kapitel aus Data Feminism untersucht, wie unsichtbare Arbeit – insbesondere unbezahlte, unterbezahlte und unterbewertete Arbeit – die Datenwissenschaft und -technologie prägt.
Diese versteckte Datenarbeit muss sichtbar gemacht werden, weil damit die in Data Science verankerten Machtungleichgewichte hinterfragt werden können.
Prinzip Nr. 7: Datenarbeit sichtbar machen.
Data Feminism zeigt auf, dass jedes Datenrodukt weltweit, die Arbeit vieler Hände ist. Diese Arbeit muss sichtbar gemacht werden, damit sie anerkannt und wertgeschätzt werden kann.
Zusammenfassung
Neue Formen der Vernetzung im Technologiebereich
Das Schlusskapitel beginnt mit dem Streik im November 2018, bei dem über 20.000 Google-Mitarbeiter gegen die Abfindung von 90 Millionen US-Dollar für Andy Rubin nach Vorwürfen sexuellen Fehlverhaltens protestierten. Dieses Ereignis dient als Beispiel, um zu untersuchen, wie Beschäftigte in der Technologieinfrastruktur kollektive Macht ausüben können.
Die Autorinnen argumentieren, dass Beschäftigte in der Technologiebranche in einer relativ guten Position sind und über drei Formen von Macht verfügen:
- Verhandlungsmacht: Aufgrund ihrer Nähe zu kritischer digitaler Infrastruktur, können Arbeitsniederlegungen große Auswirkungen haben. (Siehe z. B. die Artikel zum Google Streik in The New York Times und in Die Zeit).
- Kommunikationsmacht: Beschäftigte in der Technologiebranche beherrschen die digitalen Kommunikationsmedien und können sie für die Verbreitung ihrer Anliegen und für Organsiationszwecke nutzen. (Siehe z. B. die Webseite „Worker power in the tech industry“ der Tech Workers Coalition, TWC, oder Data For Black Lives (D4BL), ein Netzwerk von über 4.000 Wissenschaftlerinnen und Aktivistinnen, um die Macht von Daten und Technologie zu nutzen, um das Leben Schwarzer Menschen nachhaltig zu verbessern. )
- Subversionsmacht: Beschäftigte in der Technologiebranche könnten ihre Kenntnisse und Zugriffsrechte nutzen, um die technologischen Möglichkeiten der Firmensysteme für ihre Zwecke zu nutzen. (Siehe z.B. den Zusatz zur MIT Lizenz, der 2018 von Lerna Mitarbeiter*innen hinzugefügt wurde, um ausdrücklich die Nutzung der Software durch Unternehmen oder Organisationen, die mit der US-Einwanderungs- und Zollbehörde (ICE) zusammenarbeiten, zu verbieten.
Alternative Datenzukünfte entwickeln
Mit vielen Beispielen – von denen ich nur ganz wenige ausgewählt habe – zeigen die Autorinnen vielfältige Strategien auf, um unterdrückende Systeme, die in Daten und Technologie verankert sind, herauszufordern.
Anstatt aber einen einzigen Ansatz vorzuschreiben, würdigen die Autorinnen die Vielfalt der Ausgangspunkte für Widerstand. Die Botschaft ist klar: Vielfältige Ökosysteme des Widerstands sind notwendig, um Machtungleichgewichte in Datensystemen zu überwinden.
Die Autorinnen unterstreichen zum Abschluss des Buches die Dringlichkeit von Gegenentwürfen: Es ist höchste Zeit, alternative Datenzukünfte zu entwerfen und zu gestalten, bevor sich die gegenwärtigen Normen verfestigen. Der wiederkehrende Refrain – „Lasst uns jetzt vervielfachen“ – spiegelt den Aufruf zu Verbreitung, Zusammenarbeit und kollektiver Vorstellungskraft in all diesen entstehenden Bewegungen wider.
Literatur
[zotpressInTextBib]
- Der Artikel verwendet für die Zusammenfassungen der einzelnen Buchkapitel das KI-Modell Claude Haiku. Dieser erste Draft wurde von mir anschließend ins Deutsche übersetzt und für den Blogbeitrag redigiert. Zusätzlich habe ich sowohl konkrete Beispiele aus dem Buch eingefügt als auch eigene Aspekte diesem Artikel hinzugefügt. ↩︎