Das Internet ist ein Sexist

Und unsere Gesellschaft hat es dazu gemacht. Über diskriminierende Algorithmen und ihre Folgen.
Von Tasnim Rödder

Illustration: Federico Delfrati

Tippst du „a doctor“ bei Google Translate ein, wird daraus: „ein Arzt“. Was fehlt? Die Option, dass es sich um eine Frau handelt. Google verschweigt sie. Dem Übersetzungstool wurde bisher nicht beigebracht, dass der genderneutrale englische Begriff „doctor“ im Deutschen auch eine Ärztin sein kann. Je länger man darüber nachdenkt, desto stärker stellt sich die Frage: Gibt es vielleicht noch mehr Sexismen in den Technologien, die unseren Alltag prägen? Die man selbst und Tausende anderer User*innen einfach nicht bewusst wahrnehmen? Die Journalistin Chris Köver sagt ja – und hat dafür auch direkt eine logische Erklärung: „Nicht einmal jede vierte KI-Fachkraft ist eine Frau, weltweit betrachtet“, sagt die Netzpolitik.org-Redakteurin auf dem Zündfunk-Netzkongress. Das zeige

unter anderem eine Auswertung von Linkedin, die im Dezember 2018 veröffentlicht wurde.

Nicht die Algorhithmen diskriminieren, sondern die Menschen, die sie erschaffen

Je weniger Frauen Datensätze für algorithmische Systeme schreiben, desto weniger repräsentieren die Algorithmen die Interessen der Frauen. Wären mehr Entwicklerinnen bei der Schaffung von Siri beteiligt gewesen, hätte die Software beispielsweise sicher etwas anderes gelernt, als auf Beschimpfungen lediglich mit „Wenn ich könnte, würde ich jetzt erröten“ zu antworten. So argumentiert auch Alexandra Martini im Podcast „Hier nur Privat – Was das Internet bewegt“. „Datensätze, mit denen Algorithmen gefüttert werden, spiegeln rassistische und sexistische Vorurteile in unserer Gesellschaft wider“, sagt Köver. „Sie tragen also auch Diskriminierungen mit sich und katalysieren sie innerhalb der Gesellschaft.“

Das heißt: Es sind nicht die Algorithmen, die diskriminieren. Sondern die Menschen, die diese Algorithmen erschaffen haben.

Und sie haben mehr Wirkkraft, als wir denken. Das erfuhr Joy Buolamwini, Tech-Aktivistin und Studentin am renommierten Massachusetts Institute of Technology, am eigenen Leib. Die Gesichtserkennungssoftware „Recognition“ von Amazon erkannte Buolamwinis Gesicht nicht. Daraufhin forschte sie zu weiteren Gesichtserkennungssoftwares: Viele weisen dieselbe Blindheit für schwarze Frauengesichter auf. Die größtenteils männlichen und weißen Entwickler unterschlugen eine Palette an Hauttönen und Gesichtsformen. Mit einer Fehlerquote von 20 Prozent bei der Erkennung Schwarzer Frauen schneidet Amazons Gesichtserkennungssoftware besonders schlecht ab.

Wenn dich die Gesichtserkennung nicht erkennt, weil du nicht weiß bist

Diese Gesichtserkennungssoftwares werden heute schon zum Beispiel beim Sicherheitscheck im Flughafen eingesetzt. „Noch hat man die Option sich zu verwehren, aber in Zukunft wird es diese Option an vielen Stellen nicht mehr geben“, warnt Köver. Einige Kritiker*innen argumentieren zwar, dass es doch gut sei, von der Software nicht erkannt zu werden. „Aber in der Praxis führt das dazu, dass Sicherheitsleute Schwarze Frauen am Flughafen warten lassen, extra durchsuchen und scannen. Somit rücken Schwarze Personen an Sicherheitschecks noch mehr in den Fokus, als sie ohnehin schon stehen“, sagt Köver.

Heute ist Joy das Gesicht einer Mission geworden, mit dem Ziel, algorithmische Vorurteile im Bereich des maschinellen Lernens zu bekämpfen – ein Phänomen, das sie „den programmierten Blick“ nennt. Was für das Interesse von Frauen als diskriminierte Gruppe gilt, gilt also auch für Menschen mit Behinderung, Arme, nicht-binäre Personen oder Schwarze. Doch was tun? „Die Entwicklung ist schon positiv: Der Frauenanteil an Unis in MINT-Fächern steigt zum Beispiel“, sagt Köver. „Aber es ist kein spezifisches Problem der IT-Szene, sondern ein gesellschaftliches.“ Wir leben immer noch in einer sexistischen Gesellschaft, in der Themen und Eigenschaften auf völlig irrationale Weile dem einen oder dem anderen Geschlecht zugeteilt werden.

Staatliche Regeln sollen Abhilfe leisten

Technologie ist nach wie vor männlich besetzt. So lernen  Kindergartenkinder, dass das Bauen eine Jungs- und Malen eine Mädchensache ist. Trotzdem gibt es natürlich auch Frauen, die sich für den technologischen Bereich entscheiden und sich bis dahin hocharbeiten – wie zum Beispiel Joy Buolamwini. Doch sie ist eine unter wenigen. „Es braucht einen gesamtgesellschaftlichen Wandel, um das Problem zu lösen“, sagt Köver.

Doch bis eine Atmosphäre geschaffen ist, in der Fragen nach Geschlecht, Herkunft, sexueller und geschlechtlicher Identität absurd erscheinen, dauert es wohl noch. Bis dahin, so fordern es Expert*innen, sollten staatliche Regeln Abhilfe leisten. „Ich finde es sehr erstaunlich, dass es kaum gesetzliche Regulierung gibt in diesem Bereich“, sagt Köver. „Wenn zum Beispiel eine Behörde einen bestimmten Algorithmus einsetzt, um Fördermittel zu verteilen, muss eine Risikofolgenabschätzung Pflicht sein. Für die Privatwirtschaft sollten auch gesetzliche Regeln gelten.“ Künstliche Intelligenz ist nicht nur für Laien, sondern auch für Wissenschaftler*innen immer noch eine Black Box. Etwas Neues, Inspirierendes – aber leider auch schwer Kontrollierbares, das unter Kontrolle gebracht werden muss. Seit April antwortet Siri auf Beschimpfungen übrigens mit „I don’t know how to respond to that“.

Tasnim Rödder ist Schülerin der Deutschen Journalistenschule. Dieser Text ist im Rahmen des Zündfunk-Netzkongresses, dem Digital Kongress des Bayerischen Rundfunks und der Süddeutschen Zeitung, entstanden.

  • teilen
  • schließen