Spotlight: Stellen wir höhere Anforderungen an KI

IHR2019_spotlight_AI-2-3

Die rumänische Wissenschaftlerin Stefania Druga bringt Kindern bei, wie man künstliche Intelligenz (KI) programmiert. Sie hat außerdem erforscht, wie 450 Kinder aus sieben Ländern mit internetfähigen Spielzeugen und Sprachassistenten wie Alexa oder Google Home interagieren und diese wahrnehmen.

Druga zufolge verstehen Kinder mehr, als ihre Eltern denken. So auch, dass der Erfolg von maschinellem Lernen davon abhängt, welche Trainingsdaten einem zur Verfügung stehen.

Die von ihr entwickelte Lernplattform folgt der Philosophie: Wenn Kinder die Möglichkeit bekommen, ihre Beziehung zu „smarten“ Technologien besser zu verstehen und zu beeinflussen, können sie aktiv entscheiden, wie sich diese verhalten sollen. Sie sammeln Daten und schulen damit ihre Computer.

Diesen einfachen Ansatz müssen wir unbedingt auch in anderen Bereichen unserer Gesellschaft anwenden.

Um nachvollziehen zu können, wie sich KI auf die Menschheit auswirkt, müssen wir sie zuerst verstehen und uns dann überlegen, wie wir sie einsetzen wollen. Ob zum Spaß oder als Hilfsmittel für Unternehmen, Staat und Militär – ihre Nutzung schnellt in ungeahnte Höhen, ohne dass ausreichend auf die damit einhergehenden Risiken geachtet wird.

Jap, es handelt sich wahrscheinlich um KI.“ So lautet das Fazit von Karen Haos Flussdiagramm zu jeder Technologie, die zuhören, sprechen, sich bewegen und logisch denken kann. Jeder, der heutzutage das Internet nutzt, interagiert bereits mit irgendeiner Form von automatisierter KI, ob es ihm bewusst ist oder nicht.

Im Grunde sind maschinelles Lernen und KI-Technologien nur die nächste Stufe der elektronischen Datenverarbeitung. Sie ermöglichen eine effektivere Automatisierung sowie bessere Vorhersagen und Personalisierung.

Diese Technologien erweitern die Möglichkeiten vernetzter Computer derart, dass sie einen fundamentalen Wandel darstellen und wahrscheinlich bald noch tiefer in unser Leben eingreifen werden.

Natürlich werden Suchmaschinenergebnisse, Playlisten oder Navigationsrouten nicht einfach herbeigezaubert, sondern entstehen durch sogenannte Algorithmen, die von Menschen programmiert werden. Anhand der Daten, die in diese Formeln eingespeist werden, legen sie automatisierte Entscheidungsprozesse fest.

Eröffnen sie uns jedoch neue Möglichkeiten, fühlt es sich manchmal tatsächlich so an, als sei Magie im Spiel. Die Website This Person Does Not Exist (dt.: Dieser Mensch existiert nicht) ist ein gutes Beispiel dafür. Jedes Mal, wenn Du sie besuchst oder die Seite neu lädst, zeigt sie Dir Gesichter von Menschen, die es nie gegeben hat. Diese werden nach dem Zufallsprinzip von einem auf maschinellem Lernen basierenden Algorithmus generiert, der dazu auf eine Datenbank von echten Gesichtern zugreift.

Wenn Du genau hinschaust, dürften Dir Fehler auffallen – schief sitzende Ohren, verschwommene Hintergründe, Haar, das nicht so fällt, wie es sollte. Mit This Cat Does Not Exist gibt es auch eine entsprechende Website für Katzen, doch die liefert noch weniger überzeugende Ergebnisse. Beide Bildgeneratoren könnten durch zusätzliche Daten und Unterstützung verbessert werden. Allerdings besteht auch das Risiko, dass selbst derart skurrile Kreationen dazu genutzt werden, die Realität zu verzerren.

So brachten die Forscher von OpenAI die Medien in Aufruhr, als sie bekannt gaben, dass sie lediglich eine limitierte Version ihrer KI-Technologie für Forschungszwecke veröffentlichen würden. Die Software kann automatisch realistische Texte generieren, die unter anderem auf den Inhalten von acht Millionen Websites basieren. Seine Entscheidung traf das Team in Anerkennung der Gefahren, die von der missbräuchlichen Verwendung ähnlicher Technologien ausgehen. „Aus Sorge vor Missbrauch haben wir uns entschlossen, die trainierte Version unserer Technologie nicht zu veröffentlichen“, schrieben sie und nannten ihren Entschluss ein Experiment in „verantwortungsvoller Offenlegung“.

Es geschieht viel zu selten, dass die Schwachstellen und das Missbrauchspotenzial von KI-Technologien so deutlich anerkannt werden. In den letzten zehn Jahren wurde das Thema künstliche Intelligenz von denselben Tech-Giganten mitgestaltet, die sowohl in den USA als auch in China die Kontrolle über soziale Medien und E-Commerce haben. Da sie Unmengen an Trainingsdaten zusammentragen können, sind sie in der Lage, noch mächtigere Technologien zu entwickeln – und genau das tun sie auch. Noch dazu in solch halsbrecherischem Tempo, dass ernsthafte Sorgen um das Schadenspotenzial und die externen Effekte dieser Technologien auf der Strecke zu bleiben scheinen.

Amazon, Microsoft und andere Unternehmen verkaufen ihre Gesichtserkennungstechnologien bereits direkt an Strafverfolgungs- und Einwanderungsbehörden – und das, obwohl genaustens dokumentiert und bestätigt wurde, dass sie besorgniserregende Ungenauigkeiten aufweisen und eine ernste Gefahr für nichtweiße Menschen in den USA darstellen. Im Gegenzug äußern die Angestellten der Internetriesen, die KI-Technologien herstellen, darunter auch Amazon und Google, ihre moralischen Bedenken mit einer umso größeren Dringlichkeit.

Trotz alledem lassen sich die Führungsspitzen nicht beirren. Sie vertrauen weiterhin auf ihre Geschäftsmodelle, überschätzen die Präzision ihrer Technologien und scheinen entweder wenig über die enormen Risiken zu wissen oder sind einfach nicht an ihnen interessiert. Um durch Kontroversen ausgelöste Sorgen zu beschwichtigen, gründeten mehrere Unternehmen, so auch Axxon, Salesforce und Facebook, Ethikräte zur Überwachung von Entscheidungen.

Meredith Whittaker, die Mitgründerin des Forschungsinstituts AI Now, nennt dies „Ethik-Theater“ und bemängelt die fehlenden Beweise dafür, dass diese Räte Entscheidungen zu Produkten fällen können oder über ein Vetorecht verfügen. In einem Interview mit dem Technikblog Recode fragte Whittaker die Unternehmen direkt: „Werdet ihr der Menschheit und vor allem den seit jeher marginalisierten Bevölkerungsgruppen schaden? Oder werdet ihr euch irgendwie zusammenreißen und tiefgreifende Veränderungen durchführen, um sicherzugehen, dass eure Produkte nichts Schlimmes anrichten?“

Wie es der Zufall wollte, ging Googles Ankündigung, einen Ethikrat einrichten zu wollen, mächtig nach hinten los: Heftige Proteste seitens der Mitarbeiter und öffentliche Empörung über die Zusammensetzung des Rats führten im April 2019 zu dessen Auflösung. Zwar betonte das Unternehmen immer wieder, Grundsätze für künstliche Intelligenz etablieren zu wollen, und beteiligte sich auch an sozialen Projekten. Dennoch stehen die Prioritäten seiner vielen unterschiedlichen Projekte und Tochtergesellschaften miteinander im Konflikt.

Welche ethischen Herausforderungen gäbe es denn für solche Räte in der realen Welt, wenn sie Whittakers Rat befolgen würden? Man könnte zum Beispiel eine Funktion hinterfragen, die Milliarden Menschen im Alltag nutzen: Googles Videoplattform YouTube steht immer wieder im Verdacht, ein unüberschaubares Netz aus Tunneln zu sein, das von einem Video zum nächsten führt. YouTube streitet es zwar ab, doch Forschungen zeigen, dass die verwendeten Empfehlungsalgorithmen eine Desinformationskrise befeuern und sektenhafte Einstellungen gegenüber Impfungen, Krebs, geschlechterbasierter Diskriminierung, Terrorismus, Verschwörungstheorien und beliebigen anderen Themen begünstigt.

Auch Pinterest und Amazon schlagen ihren Nutzern immer wieder neue, interessante Inhalte vor, um sie an sich zu binden. Diese Plattformen haben mit ähnlichen Problemen zu kämpfen. Zwar kündigten sie beide nach öffentlichen Skandalen an, impfkritische Inhalte verbannen zu wollen. Trotzdem gibt es bisher nur wenig Hinweise darauf, dass sich die grundlegende Absicht oder Funktionsweise dieser Systeme greifbar verändert hat.

Aber nicht nur Technologieunternehmen sollten ihren Umgang mit KI aus einer ethischen Perspektive hinterfragen. Wir alle sollten das tun – von Städten und Regierungsbehörden bis hin zu Banken und Versicherungsunternehmen.

In neun EU-Ländern wurde an den Grenzen ein auf KI basierender Lügendetektor zur Überprüfung von Reisenden getestet. Systeme, die die Kreditwürdigkeit der Bevölkerung ermitteln, erreichen aufstrebende Märkte in Asien und Afrika. In den USA verwenden Krankenversicherungen Daten aus sozialen Netzwerken, um zu entscheiden, wer welche Leistungen erhalten sollte. Sogar bei der Frage, wer weiterhin im Gefängnis bleiben oder freigelassen werden sollte, ist in den USA bisweilen künstliche Intelligenz zum Einsatz gekommen.

Ist diese Verwendung von KI ethisch? Werden Menschenrechte geachtet? China hat bekanntermaßen ein sogenanntes Sozialkredit-System eingeführt, um seine Bürger zu bewerten. Darüber hinaus setzen die chinesischen Behörden Gesichtserkennungssysteme zur Überwachung und systematischen Unterdrückung einer Minderheit ein.

Wo ziehen wir die Grenze?

Derzeit steht die Welt im Grunde zwei unterschiedlichen Herausforderungen gegenüber: Wir müssen die Fehler, die uns bekannt sind, korrigieren und wir müssen darüber nachdenken, was gute künstliche Intelligenz überhaupt ausmacht.

Regierungs- und Unternehmensprozesse wären vielleicht effizienter und kostengünstiger, wenn sie nicht mehr von Menschen durchgeführt werden. Manchmal ist der Preis dafür aber zu hoch.

Wir fragen uns viel zu selten: „Sollen wir das wirklich tun? Funktioniert es überhaupt?“ Dabei lohnt es sich, darüber nachzudenken, ob wir KI überhaupt für Vorhersagen benutzen oder so bereitwillig in unser Zuhause aufnehmen sollten.

Einige der schlimmsten Fehltritte sind vor allem deswegen passiert, weil fehlerhafte Trainingsdaten im Spiel waren oder weil den ernsten Vorurteilen, die schon in ihre Sammlung und Analyse mit einflossen, keine Beachtung geschenkt wurde.

Beispielsweise erhalten Frauen in einigen automatisierten Bewerbungsverfahren durchgehend schlechte Bewertungen, wenn die Daten auf eine männerdominierte Branche hinweisen.

„Die Kategorien der Datensammlung sind von größter Bedeutung, vor allem dann, wenn es darum geht, Menschen in Gruppen zu unterteilen“, sagen die Autorinnen des Buches Data Feminism. In diesem setzen sie sich mit der Frage auseinander, inwiefern datenbasierte Entscheidungen Ungleichheiten immer weiter vorantreiben, wenn die damit einhergehenden Risiken nicht aktiv minimiert werden.

Wenn wir uns allein auf die neun Größen der KI-Branche verlassen, werden wir, so scheint es, eine von Konzernen kontrollierte Welt herbeiführen, in der Überwachung und Konformität an der Tagesordnung stehen – insbesondere solange es auf allen Ebenen dieser Unternehmen weiterhin auch an geschlechtlicher, ethnischer und globaler Vielfalt mangelt. Wenn Ingenieure, Ethiker und Menschenrechtsexperten gemeinsam darüber nachdächten, wie KI am besten funktionieren sollte, wäre es wahrscheinlicher, dass das Ergebnis der Menschheit zugutekäme.

Wir haben gerade erst damit angefangen, uns eine klare und attraktive Vorstellung davon zu machen, wie unsere Zukunft aussehen soll.

Im Verlauf der letzten Jahre hat eine Bewegung Fuß gefasst, die sich eingehender damit beschäftigen möchte, vor welche Herausforderungen die Welt im Zusammenhang mit künstlicher Intelligenz gestellt wird. Weltweit haben Experten für digitale Rechte, Technologen, Journalisten und Forscher verschiedene Wege erprobt, wie sie Unternehmen, das Militär und Strafverfolgungsbehörden dazu bewegen können, die mit KI verbundenen ethischen Dilemmata, Fehler und Risiken anzuerkennen.

All diejenigen unter uns, denen die Gesundheit des Internets am Herzen liegt, müssen KI besser verstehen. Sie fließt in nahezu alle Arten von digitalen Produkten ein und beeinflusst zunehmend Entscheidungen, die Menschen auf der ganzen Welt betreffen. Um unser gemeinsames Verständnis zu erweitern, müssen wir Gelerntes miteinander teilen. Stefania Druga bringt bereits einen kleinen Stein ins Rollen, indem sie Gruppen von Kindern unterrichtet, und in Finnland soll eine groß angelegte Initiative einem Prozent der Landesbevölkerung – also 55.000 Menschen – die Grundlagen der KI beibringen. Was wirst Du tun?

Wie kann sich die Öffentlichkeit mit einer Technologie, die sie noch nicht versteht, auseinandersetzen und Entscheidungen über ihre Regulierung treffen?

  1. H-J Raddant

    Die genanten Möglichkeiten der KI zeigen mir, dass mit Hochdruck eine KI-Version erstellt werden sollte, die die Menschen im Internet vor der KI der großen Konzerne schützt.

  2. Holger Eismann

    Wissen ist Macht... In diesem Sinne kann es nur gut und richtig sein, wenn möglichst viele Menschen, die zwangsläufig Nutzer von KI sind und werden, über das Funktionieren und Wirken von KI "aufgeklärt" werden. Die Frage ist, wie man die Menschen dafür interessiert/ sensibilisiert. Denn bis heute versteht sich die übergroße Mehrheit der Menschen, die mit KI umgehen nur als "Nutzer" der Technik und verlassen sich blind auf die Entwickler dieser Technik, "dass schon nichts Schlimmes passieren wird". Das zu ändern und den Leuten nahezulegen, dass es für jeden von ihnen Vorteile hat, nicht nur zu vertrauen sondern zu "verstehen", mit was man da eigentlich umgeht (und oft spielt) wäre ein erster wichtiger Schritt in diese Richtung.

Siehe Mozillas Richtlinien für das Mitwirken in der Community: [English | Español | Deutsch | Français]. Kommentare werden auf dieser Seite moderiert. Wir lehnen Kommentare ab, die andere verletzen oder nichts mit dem Thema zu tun haben.