In den Science-Fiction-Geschichten des frühen 20. Jahrhunderts erscheinen künstliche Intelligenzen oft noch als Hardware – als klobige, scheppernde Apparate aus Stahl und Blech.
Jahrzehnte später ist klar, dass das echte Leben der künstlerischen Vorlage nicht gefolgt ist. Die heute mit uns existierende künstliche Intelligenz findet sich in den Armaturen unserer Autos oder in sprachgesteuerten Lautsprechern wie dem Amazon Echo. Manchmal ist sie aber auch vollkommen unsichtbar – zum Beispiel dann, wenn sie unsere Suchergebnisse optimiert, Versicherungsbetrug aufdeckt und uns Online-Werbung anzeigt.
Einen anderen Aspekt der Science-Fiction scheinen moderne KIs sehr wohl aufgegriffen zu haben: Dass intelligente Maschinen nicht immer dem guten Zweck dienen oder sich genau so verhalten, wie es der Mensch von ihnen erwartet.
Künstliche Intelligenz ist bereits dabei, die Medizin, die Geschäftswelt und das Transportwesen komplett umzuwälzen. Aber selbst wenn ihre Designer in bester Absicht gehandelt haben, kann sie zur Verbreitung von Falschinformationen beitragen und Vorurteile aufrechterhalten.
Meredith Whittaker, Forscherin und Mitbegründerin des AI Now Institute, untersucht an der New York University die gesellschaftlichen Implikationen künstlicher Intelligenz. Sie sieht in den hohen Markteintrittsbarrieren eines der größten Probleme des heutigen KI-Ökosystems. Eine überwältigende Mehrheit der KI-Technologien liegt in den Händen von einigen wenigen einflussreichen Unternehmen: Google, Amazon und Facebook etwa aus den USA oder TenCent und Baidu aus China produzieren und kontrollieren den Löwenanteil.
„So, wie uns der Silicon-Valley-Mythos das weismachen will, funktioniert es nicht. Es ist einfach nicht möglich, ein KI-Unternehmen mit nur einem Computer und einer netten Idee in Deiner Garage hochzuziehen“, betont Whittaker.
Um Systeme mit künstlicher Intelligenz zu entwickeln, braucht man extrem viel Rechenleistung, und die ist nicht gerade günstig. Darüber hinaus ist ein dauerhafter Zugang zu einer enormen Datenmenge nötig, um diese Systeme sinnvoll zu trainieren. Daten von der Sorte, auf die Social-Media-Giganten oder Massenproduzenten von Smartphones Zugriff haben – nicht solche, die kleineren Unternehmen oder Einzelherstellern zur Verfügung stehen.
Dann gibt es noch die Fachkräfte-Komponente: Es besteht ein riesiger Bedarf an Menschen mit Abschlüssen in höherer Mathematik und Informatik. „Dieser enorme Wettbewerb verleitet High-Tech-Giganten dazu, mit Geld nur so um sich zu werfen, um diese wenigen talentierten Spieler für ihren eigenen Kader zu verpflichten“, so Whittaker.
Das Problem mit den Vorurteilen
Durch die Tatsache, dass nur eine kleine Anzahl Spieler und ein eng gefasster Talentpool dafür verantwortlich sind, umfangreiche KI-Systeme zu entwerfen und aufzubauen, seien Vorurteile geradezu vorprogrammiert, erklärt Whittaker. Wenn eine homogene Menschengruppe – etwa männliche US-Amerikaner im Silicon Valley – Technologien entwirft, vernachlässigt sie möglicherweise die Ansichten und Bedürfnisse von Menschen außerhalb ihres eigenen Erfahrungshorizonts.
Journalisten und Forscher haben bereits etliche beunruhigende Beispiele für solche voreingenommenen Systeme gefunden. So fand ProPublica 2016 mit einer aufwändigen Studie heraus: Algorithmen und dazugehörigen Datensätze schätzen regelmäßig falsch ein, wie wahrscheinlich es ist, dass bestimmte Personen ein Verbrechen begehen – weil einer der Faktoren die Hautfarbe des potenziellen Verbrechers ist. Dabei werden sie von Strafverfolgungsbehörden in den gesamten USA eingesetzt.
In der texanischen Stadt Houston spuckte eine KI zur Bewertung von Lehrkräften fehlerhafte Ergebnisse aus und brachte damit letztes Jahr den Schulbezirk vor Gericht. Nicht zuletzt belegen unzählige Studien, dass künstliche Intelligenz bei der Gesichtserkennung mehr Schwierigkeiten hat, die Gesichter von Frauen und People of Colour zu erkennen, als die von weißen Männern.
„Mangelnde Diversität ist in der Tech-Industrie ein großes Problem. Das zieht sich durch alle Bereiche, ist aber von existenzieller Bedeutung, was die gesellschaftlichen und politischen Auswirkungen von künstlicher Intelligenz betrifft.“ Whittaker führt aus: „Wir müssen uns darüber Gedanken machen, welche Kontrollmacht es mit sich bringt, wenn eine kleine, homogene Auswahl an Handlungsträgern Technologien verantwortet, die das Leben von Milliarden Menschen beeinflussen.“
Die richtigen Lösungen finden
Die Welt der künstlichen Intelligenz für neue Akteure zu öffnen, kann dabei helfen, viele dieser Probleme zu bewältigen.
Wir können die Eintrittsbarrieren für kleinere Player auf dem KI-Spielfeld minimieren, indem wir offene und vielfältige Trainingsdaten erstellen. Lasst uns für Menschen mit diversen Hintergründen bessere Möglichkeiten schaffen, Berufe mit Bezug zu künstlicher Intelligenz zu ergreifen. So können wir das Spektrum der Perspektiven erweitern. Laien sollten wie Profis einfacher nachvollziehen können, welchen Einfluss KI auf unser Leben nehmen wird. Das wird uns allen helfen, uns an der Diskussion zu beteiligen, welche Rolle diese Technologien in unserer Gesellschaft spielen sollen.
Die betroffenen Technologen und Entscheidungsträger arbeiten bereits an diesen Dingen – von Whittakers AI Now Institute bis zum Bürgermeister von New York. Tatsächlich hat AI Now vor kurzem einen Leitfaden veröffentlicht, um die Folgen algorithmischer Handlungen zu beurteilen. Er soll wichtigen Regierungsbehörden dabei helfen, automatisierte Systeme verantwortungsvoller einzusetzen.
Whittaker betont aber, dass dies nur ein erster Schritt sein kann. „Wir müssen unbedingt weiter daran forschen, darüber debattieren und diskutieren. Ich glaube, wir sind noch nicht an dem Punkt angelangt, an dem wir bereits über ‚die Lösung‘ sprechen können. Ich glaube, wir haben noch gar keine genaue Vorstellung von dem vollen Ausmaß dieser Probleme.“
Es sei unabdingbar, nach Antworten auf die grundlegenden Fragen zu suchen, so Whittaker. Wen gefährdet die Voreingenommenheit und die Ungenauigkeit solcher Systeme am meisten? Wie können wir sicher sein, ob ein System auch wirklich fair ist? Und wie entscheiden wir als Gesellschaft, wann wir KI einsetzen und wann nicht? Whittaker sieht in Sektoren wie Gesundheit oder Bildung, in denen das Gefährdungsrisiko hoch ist, den größten Bedarf für Schutzmaßnahmen.
„Die Industrie hat sehr viel Energie und Ressourcen dafür aufgewendet, KI weiterzuentwickeln, sie vermarktbar und warentauglich zu gestalten“, fährt sie fort. „Weitaus weniger wurde getan, um die gesellschaftlichen und politischen Veränderungen abzuschätzen, die diese Systeme mit sich bringen.“
Fürs Erste mahnt Whittaker zur Vorsicht. „Wir sollten uns gut überlegen, ob wir nicht erst einmal warten wollen, bevor wir bestimmte KI-Technologien einsetzen. Zuvor sollten wir die nötige Infrastruktur geschaffen haben, um sie zu verstehen. Es muss eine Möglichkeit geben zu sagen: ‚Wir werden dieses oder jenes System nicht benutzen, solange wir nicht mit absoluter Gewissheit sagen können, dass es sicher ist‘.“