Deepfakes sind da – was jetzt?

Ein 2018 veröffentlichtes Video zeigt Barack Obama, wie er in die Kamera schaut und warnt:

„Es bricht gerade ein neues Zeitalter an, in dem unsere Feinde es jederzeit so aussehen lassen können, dass alle möglichen Menschen alles Mögliche sagen – auch Dinge, die sie eigentlich nie sagen würden.“

Die Person in dem Video sieht genauso aus wie Obama und klingt auch wie er. Nur hat Obama diese Worte niemals gesagt.

In Wahrheit ist das Video ein sogenanntes Deepfake. Der Begriff bezeichnet Fotos, Videos oder Tonspuren, die mittels künstlicher Intelligenz so verändert werden, dass eine Person etwas sagt oder tut, was sie nie gesagt oder getan hat.

Bei dem Deepfake von Obama handelt es sich um ein Projekt des Filmemachers Jordan Peele und des Geschäftsleiters von BuzzFeed, Jonah Peretti, mit dem sie die Öffentlichkeit auf falsche Informationen im Netz aufmerksam machen wollten. Mithilfe von kostenlosen Tools (und Spezialisten in Sachen Videobearbeitung) schnitten sie Peeles Stimme und Mund in ein bereits existierendes Video von Obama hinein.

Einerseits machen Hollywood-Regisseure schon lange von dieser Art von Technologie Gebrauch; andererseits ist sie gerade in den letzten zwei Jahren sehr viel raffinierter und leichter verfügbar geworden.

Deepfakes waren 2018 in aller Munde, als eine Reihe bearbeiteter Videos die Runde machte, in denen die Gesichter von Prominenten mit künstlicher Intelligenz auf die Körper von Pornodarstellern montiert worden waren. Der Begriff Deepfake stammt vom Benutzernamen des Reddit-Mitglieds „Deepfakes“, das solche Videos erstellte und das Subreddit /r/deepfakes eröffnet hatte, um sie dort zu verbreiten.

Einige Plattformen reagierten entschlossen auf das Aufkommen dieser Deepfake-Pornovideos und viele von ihnen stuften sie als nicht einvernehmliche Pornografie ein. Deshalb wurde das Subreddit /r/deepfakes im Februar 2018 gesperrt.

Der Name aber blieb haften – vielleicht, weil er durchaus sinnvoll erscheint. „Deep“ bezieht sich auf die „Deep Learning“-Methoden, die zur Erstellung dieser Medien genutzt werden, und „fake“ spielt auf den künstlichen Aspekt an.

Diese Technologien werden nicht nur einem immer breiteren Publikum zugänglich gemacht, auch ihre Anwendung wird immer vielfältiger – zum Beispiel, um Deepfakes von ganzen Körpern oder in Echtzeit zu erstellen und um bestimmte Elemente nahtlos aus Videos zu entfernen. Die negativen Auswirkungen, die Deepfakes potenziell auf einzelne Personen, Communitys und Demokratien haben könnten, sind weltweit ein Anlass zur Sorge.

So real ihr Schadenspotenzial auch ist, betont Sam Gregory, Programmleiter der Menschenrechtsorganisation WITNESS, sollten wir uns dennoch auf die Lösungsfindung konzentrieren, statt uns von unserer Angst lähmen zu lassen. Anhand von Gesprächen mit Experten auf dem Gebiet veröffentlichte er eine umfassende Studie zu möglichen Lösungsansätzen für die böswillige Nutzung von Deepfakes und synthetischen Medien.

Was technische Lösungen angeht, untersuchen derzeit viele Plattformen, Forscher und Start-ups, inwiefern künstliche Intelligenz zur Aufspürung und Entfernung von Deepfakes eingesetzt werden kann. Auch auf dem Gebiet der Videoforensik zielen viele Innovationen darauf ab, uns in der Erkennung der Authentizität und Herkunft von Bildern und Videos zu schulen. Tools wie ProofMode und TruePic sollen Journalisten und Privatpersonen dabei helfen, die Echtheit bestimmter Medien selbst überprüfen und bestätigen zu können.

Auch wenn er die Relevanz dieser Lösungswege nicht anzweifelt, befürchtet Gregory dennoch, dass sie das Problem nicht alleine beseitigen können. Er sagt: „Die Frage danach, welche Communitys von technischen Lösungen ausgeschlossen werden könnten und wer am Ende die Kontrolle über die Daten hat, darf nicht unter den Tisch fallen. Sollten Tools zur Überprüfung der Herkunft von Medien irgendwann unverzichtbar werden, könnten sie gegen einzelne Personen gerichtet werden, die lieber anonym bleiben würden oder keine Möglichkeit haben, auf sie zuzugreifen.“

Digitale Bildung ist entscheidend, wurde bisher aber zu wenig behandelt, meint Gregory: „Wie kriegt man die Menschen dazu, Fragen zu stellen, wenn sie auf ein makelloses Bild treffen?“ Es sei besonders wichtig, Menschen fortzubilden, die mit schutzbedürftigen Gruppen zusammenarbeiten oder deren Arbeit von Deepfake-Technologien in ein schlechtes Licht gerückt werden könnte, wie Journalisten oder Menschenrechtsaktivisten.

Während sich viele Regierungen mit der Frage nach dem besten Umgang mit Fehlinformationen im Netz auseinandersetzen, warnen einige Aktivisten und Forscher davor, Deepfake-Technologien ganz zu verbieten. Sie sorgen sich vor dem Risiko der Zensur unbeliebter oder abweichender Meinungen, sollte ein Gesetz in Kraft treten, das Amtsträger entscheiden lässt, was wahr oder falsch ist.

Darüber hinaus empfiehlt Gregory der Zivilgesellschaft, sich darüber Gedanken zu machen, welche Rolle kommerziellen Plattformen zukommen sollte. „Plattformen haben in vielerlei Hinsicht die größte Chance, Deepfakes zu entlarven, weil ihnen die umfangreichsten Trainingsdatensätze zur Verfügung stehen. Als Zivilgesellschaft sollten wir klare Erwartungen an sie stellen, was genau sie aufspüren sollen und wie sie die Öffentlichkeit, Regierungen und entscheidende Aufsichtsbehörden informieren sollen.“

Alles in allem rät Gregory uns, die Risiken zwar anzuerkennen, uns aber nicht von der fatalistischen Grundstimmung mitreißen zu lassen.

„Das Beste wäre, jetzt nicht den Teufel an die Wand zu malen, sondern die Gelegenheit für eine vernünftige Diskussion zu nutzen“, sagt er. „Der größte Schaden, den Deepfakes potenziell anrichten könnten, ist, dass die Menschen anfangen, alles infrage zu stellen.“

Sollten Deepfakes verboten werden?

Be the first to add your voice! There are no comments yet.