Die Vorurteile der künstlichen Intelligenz

„Wir sind in der Ära der Automatisierung angekommen, übermütig und doch unzureichend vorbereitet.“ Mit diesen Worten beschreibt Joy Buolamwini in einem Video die Tatsache, dass kommerzielle Gesichtserkennungssysteme das Geschlecht jeder dritten nichtweißen Frau falsch bestimmen. Je dunkler ihre Hautfarbe, desto fehlerhafter sind die Ergebnisse.

Buolamwini zufolge sind genau diese Vorurteile besorgniserregend. Denn mit künstlicher Intelligenz (KI) wird inzwischen sogar bestimmt, wer zum Beispiel einen Kredit bekommt, wer die besten Chancen auf einen Job hat und wer was im Internet sehen darf.

Kommerzielle Gesichtserkennungssysteme werden als präzise und neutral angepriesen. Allerdings wird kaum darauf geachtet, dass sie ethische Standards erfüllen, niemanden ausschließen oder Menschenrechte und die Gleichwertigkeit der Geschlechter respektieren, bevor sie von Strafverfolgungsbehörden oder Konzernen eingesetzt werden, die einen unmittelbaren Einfluss auf unser Leben haben.

Joy Buolamwini ist die Gründerin der Initiative Algorithmic Justice League (dt. etwa: Bündnis für algorithmische Gerechtigkeit), die sich dafür einsetzt, die Debatte über geschlechtliche und ethnische Vorurteile voranzutreiben und neue Verfahren in Sachen Rechenschaftspflicht für Technologie einzuführen. Buolamwini bedient sich einer Mischung aus Forschung, Kunst und Online-Aktivismus, um auf die gefährlichen Vorurteile kommerzieller KI-Produkte aufmerksam zu machen, die sie unter dem Begriff „Coded Gaze“ (dt. etwa: programmierter Blick) zusammenfasst. Um die Öffentlichkeit zu informieren und für Veränderungen zu werben, stellte sie der Federal Trade Commission, der Bundeshandelskommission der Vereinigten Staaten, die Ergebnisse ihrer Forschung vor. Außerdem war sie Teil des Global Tech Panels der Europäischen Union, hat Artikel für bedeutende Nachrichtenmedien geschrieben und war als Hauptrednerin auf zahlreichen Medienveranstaltungen sowie akademischen und wirtschaftlichen Events anwesend.

In den Erlebnissen und Spoken-Word-Gedichten, die Buolamwini auf diversen Websites und im Videoformat mit der Öffentlichkeit teilt, geht es um ein Thema, das sonst generell auf eher trockene, fachliche Weise behandelt wird – wenn überhaupt.

Bin ich denn keine Frau?

„Coded Gaze“ bezieht sich auf das Phänomen, dass kommerzielle KI-Systeme durch die Art, wie sie auf Menschen blicken, oft Elemente der Ungerechtigkeit nachbilden und verstärken, die in einer Gesellschaft verankert sind. Mithilfe von Nachforschungen zu kommerziellen Gesichtserkennungssystemen hat Buolamwini im Center for Civic Media des MIT Media Lab dargestellt, wie Vorurteile und Ungenauigkeiten im Zusammenhang mit Geschlecht und Hautfarbe zutage treten. Fehlerhafte und unvollständige Trainingsdaten, falsche Annahmen und ein Mangel an technischen Überprüfungen sind nur einige der vielen Probleme, die das Risiko dafür erhöhen.

Im Dezember 2018 veröffentlichten die Algorithmic Justice League und das Center on Privacy & Technology der Universität Georgetown Law eine Kampfansage: den Safe Face Pledge (dt. etwa: Schwur für sichere Gesichter). Dieser listet konkrete Maßnahmen auf, mit denen Unternehmen sicherstellen können, dass Gesichtserkennungstechnologien keinen Schaden anrichten. Einige Unternehmen haben ihn bereits unterzeichnet und viele führende KI-Forscher angedeutet, dass sie ihn unterstützen.

Der Safe Face Pledge ist nur eines von vielen Experimenten, mit denen Buolamwini und ihre Kollegen große Tech-Unternehmen zu Veränderungen anregen wollen. Sie hat festgestellt, dass die Anzahl der Ungenauigkeiten deutlich abgenommen hat, seit die Öffentlichkeit auf die Vorurteilsbelastung der Gesichtserkennung aufmerksam gemacht wurde. Und als Amazon versuchte, ihre Forschungsergebnisse zu diskreditieren, feuerten leitende KI-Experten im April zurück und forderten das Unternehmen dazu auf, ihre Gesichtserkennungstechnologie nicht mehr an Strafverfolgungsbehörden zu verkaufen.

Buolamwini meint, es könne mehr getan werden. Im Blog des MIT Media Lab auf Medium schreibt sie: „Werden Technologien zur Analyse von Gesichtern dazu eingesetzt, ein bestimmtes Individuum mittels Gesichtserkennung zu identifizieren oder ihm bestimmte geschlechtliche oder ethnische Attribute zuzuschreiben, dann ist es ganz egal, ob sie präzise sind oder nicht – so oder so werden Bürgerrechte möglicherweise missachtet.“

Zudem seien Schutzmechanismen gegen den Missbrauch solcher Technologien nötig. „Es bleibt noch genug Zeit, um auf moralisch intakte KI-Systeme umzusteigen, die unsere Menschenwürde und unsere Rechte respektieren“, sagt Buolamwini. „Es stehen uns noch viele Türen offen, was die Gestaltung der Zukunft von künstlicher Intelligenz angeht. Aber wenn wir sie in Richtung Offenheit und Gerechtigkeit lenken wollen, müssen wir jetzt handeln.“

Was hältst Du von Gesichtserkennungssystemen?

  1. Anonym

    nicht akzeptabel

Siehe Mozillas Richtlinien für das Mitwirken in der Community: [English | Español | Deutsch | Français]. Kommentare werden auf dieser Seite moderiert. Wir lehnen Kommentare ab, die andere verletzen oder nichts mit dem Thema zu tun haben.