Mitte April 2021, Brüssel – während die Corona-Pandemie in Deutschland einen neuen Höhepunkt erreicht und Bund und Länder Ausgangsbeschränkungen verhängen, wird im politischen Zentrum Europas über Beschränkungen einer anderen Art diskutiert. Die Europäische Kommission veröffentlicht einen neuen Vorschlag zum Umgang mit Künstlicher Intelligenz. Er soll einen festen Rahmen setzen, in dem KI-Anwendungen florieren können und gleichzeitig ihre gefährliche Nutzung verhindert wird. Dazu unterteilt die EU-Kommission die Anwendungen in verschiedene Risikogruppen. So gibt es etwa inakzeptable Risiken oder eine Hochrisiko-Gruppe. Das Erstellen von Deepfakes fällt in die Kategorie „limitierte Risiken“, was bedeutet: Sobald ein Video kreiert wird, muss es auch als Deepfake deklariert werden.
„Wir finden wichtig, dass Menschen wissen, dass es ein Fake ist“, erklärt Johannes Bahrke, Sprecher der EU-Kommission in digitalen Fragen, die Transparenzforderung. Es gehe darum, dass der Nutzer denken könne „da ist ja wirklich tatsächlich ein Mensch, der bestimmte Statements von sich gibt“. Dabei sei der Kontext, in dem der Deepfake steht, entscheidend. Satire? Okay. Persönliche Angriffe? Nicht okay.
Die Frage nach dem Kontext steht exemplarisch für den „Kampf“ um die Wahrheit. Deepfake-Technologie hat so viele verschiedene Möglichkeiten, vermeintlich sicher geglaubte Wahrheiten – wie Videos oder neuerdings auch Satellitenbilder – zu manipulieren. Wer einen Deepfake von Tom Cruise als Witz wahrnimmt, sieht darin eine andere Wahrheit als ein Scientology-Anhänger, der denselben Clip schaut. Wahrheit ergibt sich immer aus dem Kontext – und der ist gerade im digitalen Raum flexibel.
Tech-Philosoph Mark Coeckelbergh, der einige Zeit in einem Expertengremium der Europäischen Kommission zum ethischen Umgang mit KI Mitglied war: „Ich denke, es ist kein Problem, dass Menschen auf sozialen Medien Videos produzieren, um Humor in unser Leben zu bringen. Das ist, wie Dinge mit Photoshop zu bearbeiten, um Memes zu machen. Aber es gibt ein Problem, wenn diese Videos in verschiedenen Kontexten eine Rolle spielen sollen. Und ich denke hier vor allem an politische Kontexte, wo ganze Wahlen durch manipulierte Inhalte beeinflusst werden könnten.“
Wer entscheidet, ob das Barack Obama-Video politisch oder Satire ist? Wo sind die Grenzen der Meinungsfreiheit? Fragen, die auch außerhalb der Deepfake-Welt eine enorme Dringlichkeit haben. „Ich denke, mit den Deepfakes öffnen wir wirklich die ´ethische Büchse der Pandora´ mit Herausforderungen für die Regulierungsbehörden und die Richter im Rechtssystem, die sich damit befassen müssen", sagt Philosoph Coeckelbergh. Eine Büchse der Pandora mit menschlichen Problemen.
Das betont auch Johannes Bahrke: „Wir möchten nicht eine Technologie regulieren, sondern die Nutzung.“ Man müsse bedenken, dass wir uns in Europa nicht in einem rechtsfreien Raum bewegen. Es existiere schon ein Rechtsrahmen.
Rechtsanwalt Christian Solmecke ist mit diesem Rahmen in Deutschland vertraut. Über 750.000 User folgen seinem Youtube-Kanal und erfreuen sich an seinen Analysen zu Themen, die das Netz bewegt. Dazu zählen auch Deepfakes. "Juristisch haben wir eigentlich den ganzen Werkzeugkasten, den man braucht, um mit solchen Deepfakes umgehen zu können“, sagt Solmecke.
Doch was ist, wenn Deepfakes zum Alltag werden? Was ist, wenn die sozialen Medien mit Memes gefüllt sind, die aus Deepfake-Videos bestehen? Die Gesellschaft wird sich anpassen, meint Victor Riparbelli, CEO und Co-Gründer bei Synthesia. Synthesia nutzt Deepfake-Technologie, um aus Textbausteinen Videos zu machen. Das ist etwa nützlich in der Bildung. Für Riparbelli ist der Weg klar: „Es wird eine langsame kulturelle Akzeptanz geben. Es wird von der Basis vorangetrieben werden, es werden nicht die Hollywood-Studios oder die großen Nachrichten-Fernsehsender sein, die diese Technologie aufgreifen werden. Es werden junge Leute sein, die die Technologie benutzen und Dinge tun, von denen niemand dachte, dass sie möglich wären.“ Deepfakes dienen demnach als Multiplikator für die menschliche Kreativität.
Technologie sei immer menschlich, sagt auch Mark Coeckelbergh. „Es sind also Menschen, die sie herstellen und es sind Menschen, die sie benutzen. Es sind sehr menschlichen Probleme, die in diesen ethischen Diskussionen auftauchen.“ Diskussionen an deren Ende aktuell oft noch Fragezeichen verbleiben.