Deepfakes polarisieren. Sie haben das Potenzial, innerhalb kürzester Zeit für Wirbel in den sozialen Medien zu sorgen. Bisher hat die Politik es versäumt, klare Grenzen für Deepfakes zu setzen. Deshalb entfaltet sich die Technologie ungebremst und ohne klare Regeln. Die Gefahren äußern sie auf verschiedenen Wegen.
Stellen Sie sich vor, Angela Merkel würde in einer öffentlichen Rede verkünden, dass sie Wladimir Putin für einen Trottel hält. Solche Aussagen könnten nicht nur zu einer Staatskrise führen, sondern zusätzlich schwere außenpolitische Folgen haben. Militärischen Entscheidungsträger:innen könnten Sätze von sich geben, die im schlimmsten Fall zu einem Krieg führen.
Zugegeben, ein hartes Beispiel. Auch auf lokaler Ebene könnten Deepfakes große Wirkung erzeugen. Wenn ein Politiker durch Deepfake-Technologie Aussagen in den Mund gelegt bekommt, die er so nie getätigt hat, ist die uneingeschränkte Meinungsbildung beeinflusst. Wähler:innen könnten in die Irre geführt werden und politische Parteien ihre Agenda auf illegale Art und Weise durchsetzen.
Mark Coeckelbergh ist Philosophie-Professor an der Universität Wien und beschäftigt sich mit Fragen rund um Technologie, insbesondere Künstlicher Intelligenz. Er meint:
Viele Deepfakes können heutzutage noch mit bloßem Auge erkannt werden. Auch Erkennungssoftwares können Deepfakes bislang entlarven und die Gesellschaft so vor gefälschten Informationen schützen. Das Problem: In wenigen Jahren wird die Technologie um einiges ausgefeilter sein. Um Deepfakes zu erkennen, werden bereits bestehende Technologien in die Erkennungssoftware eingespeist. Kommt jedoch eine neue Art von Deepfakes hinzu, müssen Softwares erst darauf trainiert werden. Ein Katz-und-Maus-Spiel ist die logische Folge.
Das Ziel ist deshalb, Erkennungs-Algorithmen so ausgefeilt zu gestalten, dass die Produktion neuer Deepfake-Technologien einen enormen Aufwand bedeutet – und schlicht zu schwierig und zeitintensiv wird.
Falschinformationen polarisieren. Über die sozialen Medien verbreiten sich vor allem kontroverse Nachrichten wie ein Lauffeuer. Das Problem: Selten überprüfen Plattformen die verschiedenen Informationen auf ihren Wahrheitsgehalt, bevor sie geteilt werden. Somit haben alle die Möglichkeit, Falschinformationen in Umlauf zu bringen.
Pornografische Videos können die Karrieren berühmter Persönlichkeiten beeinträchtigen. Aber auch Privatpersonen sind davon betroffen. Im Internet werden dann Videos von den Betroffenen verbreitet, die täuschend echt aussehen. Die Gründe für die Erstellung solcher Videos sind vielfältig. Die Konrad Adenauer Stiftung (KAS) schreibt dazu:
„Zum einen kann es darum gehen, jemandem zu schaden oder Rache zu üben. Es soll auch schon vorgekommen sein, dass mit Fake-Videos Geldbeträge erpresst wurden.“
Auch hier gilt: Je raffinierter die Technik wird, desto schwieriger werden gefälschte Videos zu erkennen sein.
Noch sind Deepfakes eine recht neue Technologie. Deswegen ist die Rechtsprechung dahingehend noch schwammig. Um einen rechtsfreien Raum handelt es sich jedoch nicht: Gefälschte Fotografien sind schon seit mehreren Jahrzehnten im Umlauf. Die Konrad-Adenauer-Stiftung schreibt:
„Bislang fehlt es in Deutschland an gesetzlichen Regelungen, die eindeutig eine Grenze zwischen einer zulässigen Bearbeitung von Videos und deren Verbreitung und unzulässigen Täuschungen ziehen.“
Deswegen sei es notwendig, dass der Gesetzgeber sich diesem Thema zuwende. Einige Länder der Welt, wie zum Beispiel Australien, haben schon entsprechende Gesetze erlassen. Dort droht Urhebern von pornografischen Deepfakes seit 2018 eine mehrjährige Haftstrafe.