Süddeutsche Zeitung

Unsere Kernprodukte

Im Fokus

Partnerangebote

Möchten Sie in unseren Produkten und Services Anzeigen inserieren oder verwalten?

Anzeige inserieren

Möchten Sie unsere Texte nach­drucken, ver­vielfältigen oder öffent­lich zugänglich machen?

Nutzungsrechte erwerben

„Eine KI lernt Diskriminierung von jedem einzelnen Nutzer“

Foto: Julia Poliak

Teile diesen Beitrag mit Anderen:

Künstliche Intelligenzen (KIs) erleichtern uns in vielen Bereichen des Lebens die Arbeit: Bei der Jobsuche, beim Übersetzen von Texten, bei der Partner*innensuche – um nur einige Beispiele zu nennen. Sie sind darauf programmiert, ständig weiter zu lernen, um sich selbst zu optimieren. So sollen sie beispielsweise Gesichter möglichst treffsicher erkennen, Werbeanzeigen an die perfekte Zielgruppe senden oder auch die Kreditwürdigkeit einer Person bestimmen. Während viele der Nutzer*innen von KIs nicht wirklich wissen, wie das Ganze funktioniert, hat sich Kenza Ait Si Abbou Lyadini besonders intensiv damit auseinandergesetzt. Sie arbeitet bereits seit 15 Jahren in der IT-Branche und ist Managerin für Robotik und künstliche Intelligenz bei der Telekom. Im August 2020 hat sie ihr erstes Buch „Keine Panik, ist nur Technik“ veröffentlicht. Darin erklärt sie nicht nur, wie KIs und ihre Algorithmen funktionieren, sondern auch, warum sie manchmal diskriminieren.

jetzt: Künstliche Intelligenzen und Algorithmen werden für ihre Neutralität gelobt, aber sind sie wirklich so neutral?

Kenza Ait Si Abbou Lyadini: Künstliche Intelligenzen sind nur so objektiv, wie sie programmiert wurden. Es ist wichtig zu verstehen, dass KIs kein Selbstbewusstsein haben und keine bewussten Entscheidungen treffen. Sie sind nach mathematischen Formeln programmiert, die keine eigene Meinung haben – genau wie die KI selbst. Sie handelt nur nach dem, was ihr beigebracht und vorgegeben wurde.

„Dieser Umfang an Diskriminierungspotenzial, den KIs aufweisen, ist nicht vergleichbar mit dem eines Menschen“

Wie kommt es dann, dass viele KIs Menschen diskriminieren?

Das kommt von uns Menschen. Wir trainieren die Maschinen und die lernen dann unsere Realität. Das tun sie anhand der Daten, die wir ihnen zum Lernen geben. Es ist auch nicht unbedingt der Entwickler, der diskriminiert. Ein großer Teil von Diskriminierung entsteht durch historische Daten, mit denen die KI in der Entwicklung gefüttert wird. Diese historischen Daten stammen aus der Menschheitsgeschichte und wurden in Datenbanken angesammelt. Da beispielsweise früher kaum Bilder von Schwarzen Menschen gemacht wurden, gibt es in den historischen Daten viel mehr Bilder von weißen Männern. Lernt eine Gesichtserkennung durch diese Daten, hat das zur Folge, dass dunkelhäutige Menschen viel seltener erkannt werden als weiße. Vor einigen Jahren gab es da eine Untersuchung, die verschiedene Softwares zur Gesichtserkennung verglichen hat. Diese Untersuchung hat gezeigt, dass weiße Männer zu 99 Prozent erkannt wurden, während es bei Schwarze Frauen nur 65 Prozent waren. Eine Teilschuld tragen die Entwickler und vor allem die Hersteller der Software, weil sie bei der Entwicklung der Technik auch nicht über diesen Aspekt nachgedacht haben. Wenn man was baut, muss man das ausführlich testen, damit es auch für alle Teile der Gesellschaft funktioniert.

Auf der anderen Seite wird vielen KIs auch erst nach der Live-Schaltung die Diskriminierung antrainiert. Denn dann lernen sie ja weiter. Bei jedem Klick und jedem Nutzerverhalten lernt die KI, ob sie richtig oder falsch gehandelt hat und optimiert sich selbst. So lernt die KI die Diskriminierung direkt von jedem einzelnen Nutzer.

Wie kann ich mir das in der Praxis vorstellen?

Microsoft hat beispielsweise vor einigen Jahren einen Twitter-Bot entwickelt, der mit den Nutzern schreiben sollte. Einige Twitter-Nutzer haben sich damals zusammengetan und diesen Bot mit rassistischen, faschistischen und sexistischen Aussagen konfrontiert. Nach einer Weile hat er gelernt, wie sie kommunizieren und hat sich daran angepasst. Er hat dann ebenfalls begonnen, diskriminierende Aussagen zu posten. Microsoft hat den Bot natürlich sofort entfernt.

Also ist unsere Gesellschaft das Problem und die KI spiegelt sie nur wider?

Ganz genau. KIs können sich keine neuen Diskriminierungen ausdenken, aber das, was sie von uns gelernt haben, reproduzieren sie. Das große Problem dabei ist, dass wir die Diskriminierungen nicht nur an die KIs übertragen und sie das wiederholen, sie vervielfältigen das auch Millionen Male. Wenn ein Mensch einen anderen diskriminiert, ist das eine Eins-zu-Eins-Beziehung, aber so eine Software wird von Millionen Menschen genutzt. Dieser Umfang an Diskriminierungspotenzial, den KIs aufweisen, ist nicht vergleichbar mit dem eines Menschen.

„Wenn unsere Maschinen nicht mehr diskriminieren sollen, muss sich auch unsere Gesellschaft verändern“

Wie kann man dem entgegenwirken, dass sich Diskriminierungen einschleichen?

Einschleichen ist das richtige Wort dafür. Wenn man das verhindern möchte, muss man schon bewusst gegen die Diskriminierungen ansteuern. Wenn beispielsweise eine Stellenanzeige hauptsächlich von Männern angeklickt wird, dann lernt die KI das und wird die Anzeige in der Folge seltener Frauen vorschlagen. Wenn die Stellenanzeige aber wirklich genauso vielen Frauen wie Männern vorgeschlagen werden soll, muss man das im Vorhinein programmieren.

Um Diskriminierungen entgegenzuwirken, müssten auch die Entwicklerteams diverser werden. Jungen Frauen wird häufig von IT-Berufen abgeraten und Menschen mit Migrationshintergrund oder aus Arbeiterfamilien haben generell weniger Zugang zum akademischen Bereich. Solche Strukturen verhindern die Diversität in der Branche, die eigentlich so wichtig wäre. Das Reflektieren über eine mögliche Diskriminierung gehört bisher nicht wirklich zu den Aufgaben eines Entwicklers. Deswegen wäre es umso wichtiger, mehr Leute in Entwicklerteams zu haben, die sich mit Diskriminierungen auskennen und mögliche Einflüsse auf die KI verstehen. Aktuell fragen die Teams hauptsächlich danach, ob und wie die Maschine funktioniert, aber nicht, ob es denn unsere Gesellschaft voranbringt.

Haben Sie Ideen, wie man die Branche diverser aufstellen kann?

Frauen muss schon viel früher gezeigt werden, wie interessant IT sein kann. Initiativen wie den „Girlsday“ oder „Girls Gearing Up“ finde ich toll, um Mädchen die Möglichkeit zu geben, eine berufstätige Frau bei ihrer Arbeit zu begleiten und einen Einblick zu bekommen. Wenn sich eine junge Frau für einen solchen Beruf interessiert, sollte sie unbedingt ermutigt werden. Beim Thema Chancengleichheit für alle Ethnien und migrierte Menschen bin ich ehrlicherweise überfragt. Da gibt es, denke ich, viele Baustellen, bei denen man ansetzen müsste.

Fakt ist aber: Wenn unsere Maschinen nicht mehr diskriminieren sollen, muss sich vor allem unsere Gesellschaft verändern. Das Bewusstsein dafür ist leider noch nicht angekommen. Solange wir das aber nicht verstanden haben, bringen alle anderen Maßnahmen auch wenig und unsere KIs werden weiter diskriminieren.

  • teilen
  • schließen