Deepfakes - schon gehört oder gar gesehen? Sind das nicht die perfekt gefälschten Videos, in denen Personen scheinbar Dinge tun oder sagen, die sie nie getan oder gesagt haben? Die auf sozialen Netzwerken geteilt werden mit der Absicht, die Viewer in irgendeiner Weise zu manipulieren? Oder sind das vielmehr innovative mediale Inhalte, die aus dem Meer der sich ähnelnden Marketingaktivitäten herausragen? Fakt ist: Deepfakes werden dank der rasanten Entwicklung der künstlichen Intelligenz (KI) immer besser und lebensechter. Es lohnt sich also, der Frage nachzugehen, ob Deepfakes nur schaden oder auch von grossem Nutzen sein können.
Was sind Deepfakes?
"Deepfake" ist eine Wortkombination aus "Deep Learning" (Methode des maschinellen Lernens resp. künstlicher Intelligenz) und "Fakes" (Fälschung, Imitation, Schwindel). Mittels Deep-Learning-Technologie lassen sich Fotos und Videos so bearbeiten, dass mit blossem Auge nicht immer zu erkennen ist, ob sie echt sind oder manipuliert wurden. Es gibt drei verschiedene Arten von Deepfakes, die allein oder in Kombination auftreten können:
- Beim "Voice Deepfake" wird häufig eine echte Stimme mittels KI nachgeahmt. Ein gutes Beispiel hierfür ist der Video-Clip mit dem ehemaligen US-Präsidenten Barack Obama, der Donald Trump vermeintlich einen „total and complete dipshit“ nennt. Weder diese noch die anderen Worte im Video stammen von Obama, sondern vom US-Schauspieler und Regisseur Jordan Peele, der mit Obamas geklonter Stimme spricht.
- Beim „Face Swapping“ wird das Gesicht einer Person mit einem künstlich erzeugten Gesicht einer anderen Person getauscht. Dabei wird die Mimik (Mund-, Kinn- und Augenbewegungen) auf das Gesicht übertragen. Entwickelt wurde die Software ursprünglich für die Lippensynchronisation in Filmen.
- Wenn die kompletten Bewegungsabläufe einer Person auf eine andere Person übertragen werden, spricht man von "Body Puppetry" (Körper-Marionettentheater). Die virtuelle Kunstfigur eines echten Menschen oder einer erfundenen Person wird "Avatar" genannt.
Deepfakes können Customer Experience, Wettbewerbsfähigkeit und gesellschaftliche Verantwortung fördern
Im kulturellen Bereich hat man sich die Deepfake-Technologie verschiedentlich zu Nutze gemacht. Hollywood lässt verstorbene SchauspielerInnen mit Hilfe von altem Filmmaterial in neuen Filmen wiederaufleben. Auch das Dalí-Museum in Florida erweckt den seligen Künstler wieder zum Leben, um ihn und seine Kunst den BesucherInnen näherzubringen. Deepfake-Dalí spricht in einer Mischung aus echten Dalí-Zitaten und erfundenen Sätzen von mehreren Bildschirmen aus und lässt sich auf eine kurze Interaktion mit seinem Publikum ein. Er dreht sich sogar um, zückt sein Smartphone und macht ein Selfie mit ihm. Stellen Sie sich vor, so etwas in der Art könnten Sie mit Ihrer/Ihrem bereits verstorbenen LieblingsschauspielerIn oder -künstlerIn erleben – das wäre wohl ein besonderer Genuss.
Versierte Marketingfachleute wissen, dass Menschen eher dazu neigen, ein Produkt zu kaufen, wenn sie es nicht nur betrachten, sondern auch in der Hand halten können. Dies gibt ihnen das Gefühl, es bereits zu besitzen. Deep Learning kann dabei helfen, diese Erfahrung zu machen. So planen H&M und Zalando, virtuelle Umkleidekabinen in ihren Onlineshops einzuführen. Als Kunde oder Kundin können Sie mit Ihrem digitalen Ebenbild in verschiedene Outfits schlüpfen. Damit tragen Sie übrigens auch dazu bei, die zahlreichen Retouren und die damit verbundene Umweltbelastung zu reduzieren. Steht dagegen der neue Gucci Ace-Sneaker auf Ihrer Wunschliste, dürfen Sie jetzt schon das Handy auf Ihre Füsse richten und das virtuelle Modell bewundern. Ebenso gibt es bereits Deepfake Apps, mit welchen Sie zuerst Ihre neue Frisur an Ihrem Avatar ausprobieren können, bevor Sie das Färben oder den Kurzhaarschnitt bereuen. Manche Apps bieten auch die zusätzliche Option, verschiedene Make-Ups und Accessoires zu testen.
Ein hervorragendes Beispiel dafür, wie Voice-Deepfakes die Reichweite einer Gesundheitskampagne erhöhen können, bildet die Power-of-the-Voice-Kampagne mit David Beckham. Die Fake Voices liessen den echten Fussballstar in neun Sprachen sprechen, als er 2019 die weltweit erste Stimmenpetition gegen Malaria startete. Das Video konnte so in zahlreichen Ländern gezeigt werden und mehr Spenden eintreiben. Die Kampagne erhielt sogar den Webby Award für Social Public Service & Activism, eine Auszeichnung für herausragende Leistungen im Internet.
Deep Fakes können auch negative und strafrechtlich relevante Folgen nach sich ziehen
Audio-Deepfakes werden aber auch schon mal eingesetzt, um Menschen um Geld zu betrügen. So zahlte die britische Tochtergesellschaft eines deutschen Energieunternehmens fast 243’000 US-Dollar auf ein ungarisches Bankkonto ein, nachdem ein Betrüger die Stimme des deutschen Geschäftsführers nachgeahmt hatte (Stupp, 2019).
Bis jetzt verursachten Deepfakes zwar noch keine politischen Skandale, doch könnten "falsche" Politiker die Polarisierung von gegensätzlichen Lagern verstärken, Wahlen beeinflussen oder gar Kriege auslösen. Oder aber eine Kultur des Misstrauens hervorbringen und dazu führen, dass man nicht weiss, was man glauben soll.
Bisher am meisten Schaden angerichtet haben Deepfakes mit manipulierten Pornovideos. Diese machen zurzeit etwa 95 Prozent der im Internet kursierenden Deepfakes aus (Terra X Lesch & Co, 2021). Zum ersten Mal tauchten solche Videos 2017 auf, als ein anonymer Nutzer sie unter dem Pseudonym „Deepfakes“ auf eine soziale Plattform namens Reddit lud. Zu sehen waren prominente Schauspielerinnen und Sängerinnen wie Emma Watson, Scarlett Johansson, Katy Perry oder Taylor Swift. Deepfakes können also auch Persönlichkeitsrechte verletzen und sind ein Thema der Informationsethik.
Lösungsansätze für einen sicheren Umgang mit Deepfakes
Deepfakes zivil- oder strafrechtlich verfolgen können Sie allerdings nur, wenn sich die/der TäterIn identifizieren lässt. Dies ist im Internet aufgrund der Anonymität bzw. dem Benutzen von Pseudonymen oft nicht möglich. Zudem fehlt es an gesetzlichen Regelungen, die eine eindeutige Grenze zwischen einer zulässigen Bearbeitung bzw. Verbreitung von Videos ziehen und unzulässigen Täuschungen. Erste grosse rechtliche Erfolge hat eine nicht prominente Australierin erreicht. Die von gefälschten Pornovideos Betroffene studierte Jura und dank Ihres Einsatzes gegen Sexismus und Missbrauch führte Australien 2018 ein Gesetz ein, das Fake-Pornographie mit mehrjähriger Haft bestraft (Terra X Lesch & Co, 2021).
Zurzeit wird mit Hochdruck daran gearbeitet, Deepfakes mit künstlicher Intelligenz zu entlarven. So wird an der Universität München KI darauf trainiert, nach Mustern zu suchen, die von blossem Auge nicht erkennbar sind (z.B. Häufigkeit von Augenblinzeln). Während die Fake-Entlarvungs-Software bei Videos mit hoher Auflösung fast immer richtig liegt (96 Prozent), beträgt die Treffsicherheit bei Videos mit geringer Auflösung immerhin noch rund 80 Prozent. Das Problem dabei: Fake-Entlarvungs-Software kann nur die Art von technischer Manipulation erkennen, die sie kennt.
Eine weitere mögliche Strategie, Deepfakes mit unlauteren Absichten zu verhindern, kann das Dokumentieren von Quellen und Verbreitungswegen von Videos sein. Insbesondere „digitale Wasserzeichen“ oder auch die Blockchain-Technologie könnten dabei eine Rolle spielen.
Fazit
Deepfakes haben durchaus das Potenzial, eine zunehmende Gefahr für die Gesellschaft und Demokratie zu werden. Expertenschätzungen zufolge wird es in wenigen Jahren auch für Laien machbar sein, Deepfakes in guter Qualität herzustellen. In der Tat wurde die Gratissoftware, mit der man Deepfakes wie jene von Obama oder Beckham hervorbringen kann, schon hundertausendfach heruntergeladen. Auch sind kostenlose Face-Swap-Apps schon weit verbreitet. So dürften insbesondere die sozialen Netze schon bald von Deepfakes überflutet werden – ob mit guter oder böser Absicht, sei dahingestellt. Damit gibt es weiteren Handlungsbedarf in juristischer Hinsicht.
Dass wir nicht genau wissen, wohin die Deepfake-Reise führt, sollte uns jedoch nicht davon abhalten, auf den grossen Mehrwert dieser innovativen Technologie zu setzen. In einer zunehmend digitalisierten Gesellschaft, in der Individualisierung grossgeschrieben wird, können Deepfakes einzigartige, personalisierte Erlebnisse in allen Lebensbereichen schaffen. Als Unternehmen könnten Sie damit nicht nur neue Kundinnen und Kunden, sondern auch Talente anziehen und an sich binden. Für klassische Medienunternehmen eröffnet sich mit dem vermehrten Einsatz der Deepake-Technologie zudem die Chance, als Trustcenter aufzutreten und dafür zu sorgen, dass nur audio-visuelle Medienformate verbreitet werden, die garantiert keine Fakes sind.
Quellen und weiterführende Informationen
Anwalt.org. (2021). Deepfakes: Die Gefahren Künstlicher Intelligenz.
BuzzFeedVideo (2018). You Won’t Believe What Obama Says in This Video! YouTube.
Holtmeyer, M. Frisuren-App: Die 3 besten kostenlosen Hairstyle-Apps im Test. Dein Handy.de. Zugriff am 01.07.2021.
Hyperbeast. (2019). Gucci Beefs Up Tech with Augmented Reality App for Shoes.
Dezeen. (2019). Museum creates deepfake Salvador Dalí to greet visitors. YouTube.
Lossau, N. (2020). Deep Fake: Gefahren, Herausforderungen und Lösungswege. Konrad-Adenauer-Stiftung e. V. Analysen & Argumente, 382.
Malaria must die (2019). How we made David Beckham speak 9 languages. YouTube.
Technische Universität München (2019). Künstliche Intelligenz enttarnt Fake-Videos.
Terra X Lesch & Co. (2021). Deepfakes – der Manipulation ausgeliefert? YouTube.