Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

Deepfakes als Unterhaltung | Wenn der Schein trügt – Deepfakes und die politische Realität | bpb.de

Wenn der Schein trügt – Deepfakes und die politische Realität Auf einen Blick Was ist KI und welche Formen von KI gibt es? KI in den Sozialen Medien Deepfakes: Technische Hintergründe und Trends Fake oder Wirklichkeit: Wieso und wie leicht lassen wir uns täuschen? Anwendungsbereiche von Deepfakes Politische Manipulation und Desinformation Pornografie Diskriminierung „Softfakes“ in Wahlkämpfen Chancen für die Demokratie Deepfakes als Unterhaltung Über den Tellerrand: Virtuelle Influencer*innen Governance von Deepfakes Regulierung von Deepfakes Strafrecht und Regulierung von Deepfake-Pornografie Technische Ansätze zur Deepfake-Erkennung und Prävention Politische Medienbildung Medien als (verzerrter) Spiegel der Realität? Unterrichtsmaterialien Redaktion

Deepfakes als Unterhaltung

Lennart Brauer

/ 8 Minuten zu lesen

Manipulation und Bearbeitung von Bildern ist schon lange in der Unterhaltungsbranche etabliert, doch über die Erstellung von Deepfakes eröffnen sich nochmal mehr Möglichkeiten. Zum Beispiel in der Bild-Generierung, wie bei diesem teilweise KI-generierten Bild. | Illustration: www.leitwerk.com (© bpb)

Die Erstellung von Deepfakes ist in den letzten Jahren immer einfacher geworden. Firmen und Open-Source-Entwickler*innen stellen benutzerfreundliche Anwendungen bereit, wodurch vielfältige kreative Deepfakes im Internet entstanden sind. Zwar werden Deepfakes auch für schädliche Zwecke wie Desinformationen genutzt, doch meist dienen sie Unterhaltungszwecken, wie Parodien, Memes oder Effekten in Filmen und Serien. Die Unterhaltungsbranche hat das Potenzial erkannt und nutzt die Technologie intensiv, sodass eine ganze Generation mit dieser ambivalenten Mediengattung aufwächst.

Vor einigen Jahren war das Erstellen von überzeugenden Deepfakes noch mit deutlich mehr Aufwand hinter den Kulissen verbunden. Accounts wie DeepTomCruise entstanden aus einer Zusammenarbeit von AI-Artist Chris Ume und dem professionellen Imitator Miles Fisher, auf den nachträglich mittels Deepfake-Methoden wie Generative Adversarial Networks (GANs) die passenden Gesichtszüge von Schauspieler Tom Cruise gesetzt wurden. Diese Methode bedarf aber stundenlanger Bearbeitung und Inszenierung.

Vor diesen „hochwertigen“ Deepfakes, gab es bereits den Trend von „Cheap Fakes“. Diese zeichnen sich durch ihre simple und schnelle (Re-)Produzierbarkeit aus und benötigen kaum oder keinerlei Kenntnisse, die für die Erstellung von Deepfakes noch vorausgesetzt werden, bspw. After Effects. Unter Cheap Fakes versteht man grundsätzlich einfache Methoden wie das Verlangsamen und Beschleunigen von Videos, selektives Schneiden oder einfache Bearbeitungsmethoden. Durch die einfache Bedienbarkeit von Cheap Fakes haben nun auch viel mehr Menschen die Möglichkeit, sie für Video oder Ton-Erstellung zu nutzen. Ein verbreitetes Beispiel dafür sind Videos zu Feiertagen , bei denen Köpfe von Freund*innen oder Familie auf tanzende Figuren platziert werden. Damit einher geht aber auch das erhöhte Missbrauchspotenzial durch Cheap Fakes, darunter fallen z.B. Desinformation oder Diffamierung. In einem prominenten Beispiel aus den USA musste die ehemalige Sprecherin des US-Repräsentantenhauses Nancy Pelosi erheblichen Schaden durch Desinformation hinnehmen und sich gegen manipulierte Videoausschnitte wehren.

Der Erfolg von Cheap Fakes nimmt trotz der Gefahren nicht ab, denn sie werden häufig zu Unterhaltungszwecken erstellt und darüber auch viel konsumiert. Zum Beispiel bieten sie eine einfache und kostengünstige Möglichkeit, kreative Ideen umzusetzen und visuell ansprechende Inhalte zu erstellen, die oft humorvoll oder satirisch sind. In der Welt der sozialen Medien sind Memes und virale Videos sehr beliebt. Cheap Fakes sind daher ein effektives Mittel, um schnell und einfach humorvolle oder überraschende Inhalte zu erstellen, die sich leicht verbreiten lassen. Nicht zuletzt kann die Intention zum Erstellen eines Cheap Fakes auch im Wunsch nach mehr Interaktion bestehen, denn humorvolle und kreative Inhalte tendieren dazu, mehr Interaktionen, wie Likes, Shares und Kommentare zu generieren. Das erhöht letztendlich die Sichtbarkeit und Reichweite der Ersteller*innen.

Allgemein kann über Deepfakes, die zur Unterhaltung in humorvollen und satirischen Formaten präsentiert werden, ein Publikum gerade über ihren harmlosen, witzigen Anschein besonders leicht getäuscht werden. Unsere kritische Wahrnehmung ist daher viel stärker herausgefordert – auch in scheinbar unkritischen Situationen. Häufig überschätzen wir aber unsere Fähigkeiten, Deepfakes zu erkennen. Eine Studie der University of Amsterdam ergab, dass die meisten Menschen zwar denken, sie könnten Deepfakes von echten Inhalten unterscheiden – in der Praxis aber häufig daneben liegen. Selbst finanzielle Anreize für eine korrekte Zuordnung verbesserten die Ergebnisse nicht. Menschen neigen nämlich dazu, Visuelles als authentisch wahrzunehmen. Auch der confirmation bias – die Tendenz, Informationen so zu interpretieren, dass sie die eigenen Überzeugungen bestätigen – verstärkt die Interner Link: Wirkmächtigkeit von Deepfakes .

Der öffentliche Zugang zu Programmen für Deepfake-Erstellung ist in letzter Zeit erheblich gestiegen. Firmen wie das New Yorker Unternehmen ElevenLabs Inc. sind eines der prominentesten Beispiele für schnell erstellbare ‚synthetische Medien‘, wie Deepfakes auch genannt werden. Die einfache Bedienbarkeit ihrer Web-Anwendung ermöglicht es Menschen, innerhalb von wenigen Sekunden authentisch klingende Stimmen zu erzeugen oder die eigene Stimme zu verändern. Sogar Stimmklone können erstellt oder Videos neu synchronisiert werden. Verifizierungsmethoden bei Stimmklonen sollen dabei Missbrauch einschränken.

Der Youtube-Channel PresidentsUniverse basiert komplett auf dieser Technologie. Bis heute wurden allein hier in den letzten 2 Jahren rund 160 Videos mit über 36 Millionen Aufrufen erstellt, in denen die US-Präsidenten Biden, Obama und Trump zusammen in einer fiktionalen Chat-Situation sind und gemeinsam Videospiele spielen. In Kombination mit der App FaceFusion, die prominente Gesichter auf das eigene Gesicht übertragen lässt, kann man so in wenigen Minuten ein Deep- bzw. Cheap Fake-Video erstellen. Die Qualität ist zwar nicht täuschend echt, aber für unterhaltsame Videos reicht es aus. In der meme culture (dt.: Meme-Kultur) drückt sich das besonders in Form von „Fake Personas“ aus. Auf TikTok hat sich der Trend der Deepfake-Personas regelrecht etabliert. Neben dem bereits erwähnten DeepTomCruise existieren unter anderem eine Fake Jenna Ortega (Fake_Ortega), ein Fake LeonardoDiCaprio (Fake_DiCaprio) oder eine Fake Margot Robbie (Fake_robbie). Auch deutsche Personen der Öffentlichkeit sind bereits Ziel von Deepfakes geworden. Olaf Scholz wurde u.a. bereits in einer Kampagne der Bild-Zeitung unfreiwillig für Eigenwerbung verwendet. Unter #DeepfakeOlafScholz gibt es unzählige Videos, die den Kanzler als Bodybuilder, Rapper oder als Gast in einer 80er Jahre Disco portraitieren. Gemeinsam haben allein diese Accounts und Videos Dutzende Millionen von Likes und Aufrufen. Diese Deepfake-Personas bieten eine spielerische Möglichkeit, sich mit berühmten Persönlichkeiten auseinanderzusetzen, ohne sie tatsächlich zu involvieren. Weitere virale Trends waren bspw. die Balenciaga Trailer-Versionen von berühmten Filmen und Franchises, oder die Kontroverse um ein falsches Bild von Papst Franziskus in einem weißen Mantel, aka Balenciaga Pope. Für Jugendliche und junge Erwachsene sind Deepfakes deshalb nicht zwangsläufig nur ein Schreckgespenst. Der erste Kontakt mit Deepfakes geschieht häufig in sozialen Medien. Zum einen sind junge Menschen auf den digitalen Plattformen sehr aktiv, zum anderen ist hier die Interner Link: Erstellung und Verbreitung von Deepfakes sehr einfach.

Deepfakes haben es mittlerweile aber auch nach Hollywood geschafft. Große Studios wie Disney nutzen bereits seit mehreren Jahren Deepfake-Technologie, um z.B. gealterte Schauspieler*innen zu verjüngen. Prominent ist dies in den neueren Star Wars Ablegern wie „The Book of Boba Fett“ oder „The Mandalorian“, in denen eine junge Version von Luke Skywalker via Deepfakes generiert wurde. Tatsächlich sind Deepfakes jedoch noch immer eine eher zurückhaltend genutzte Technik in Hollywood. Aufwändige Post-Produktion und CGI-Firmen übernehmen einen Großteil der Arbeit. Dass Deepfakes diesen Aufwand erheblich reduzieren können, zeigte der Youtuber Shamook vor einigen Jahren. Er verglich die CGI-Szenen aus Disney-Produktionen mit seinen eigens erstellten Deepfake-Versionen. Und schaffte es oftmals, ein besseres Ergebnis zu liefern als die entsprechenden 200+ Millionen Dollar Filme und Serien. So gut sogar, dass Disney ihn danach selbst anstellte.

Solche Entwicklungen sorgen in Hollywood aber nicht nur für Begeisterung. Die Writers Guild of America (WGA) und die Screen Actors Guild (SAG-AFTRA) reagierten unter großer medialer Aufmerksamkeit auf den zunehmenden Einsatz von generativer KI und Deepfakes in der Filmbranche, indem sie zu einem mehrmonatigem Streik aufriefen. Ein zentrales Anliegen des Streiks war der Schutz der Arbeitsplätze in der Kreativbranche vor der Gefahr, dass KI und Deepfake-Technologie menschliche Kreative schleichend ersetzen könnten.
Den britischen Video-on-Demand Sender ITVX kümmerten die Bedenken von Schauspieler*innen und Co. wenig. Er wagte bereits 2023 den Durchbruch mit der ersten offiziell produzierten Deepfake-Serie, „Deep Fake Neighbour Wars“. Hier werden weltweite Stars wie Rihanna oder Jay-Z in Alltagssituationen gesteckt, in denen sie sich mit ihren Nachbar*innen, ebenfalls Stars, streiten und bekriegen, unterfüttert mit Interviews über das Geschehen. Die Serie nutzt ebenfalls echte Schauspieler*innen, die als Schablone für die Technologie fungieren und in der Nachbearbeitung zu Greta Thunberg und Adele werden – ohne dabei die Erlaubnis der dargestellten Prominenten eingeholt zu haben. Auch im Marketingbereich werden bereits Deepfakes verstärkt eingesetzt, um Aufmerksamkeit zu erhalten und ihre Produkte zu bewerben. Der deutsche Stromanbieter Tibber hat bspw. in einem Werbevideo Angela Merkels Gesicht auf eine bekannte Merkel-Imitatorin gelegt, um so humoristisch für ihren Service zu werben. Bisher wird dies noch transparent gehalten durch Making-Ofs, Disclaimer oder Hinweise. Doch je mehr die Illusion genutzt wird, desto wichtiger ist ein Auge fürs Detail, Skepsis und Recherche im Nachgang. Durch den alltäglichen Kontakt mit Deepfakes wird diese Fähigkeit in Zukunft (hoffentlich) gestärkt.

Zusammenfassend lässt sich sagen, dass Deepfakes sowie Cheap Fakes sowohl faszinierende Möglichkeiten für kreative Ausdrucksformen als auch erhebliche Risiken für den politischen und gesellschaftlichen Diskurs bieten. Während die Technologie zunehmend für humorvolle und unterhaltsame Inhalte in sozialen Medien und Werbung genutzt wird, zeigen die Vorfälle in der Politik und Medien die Gefahren von Desinformationen und Missbrauch auf. Hollywood und andere Branchen experimentieren mit Deepfakes, um Produktionskosten zu senken und innovative Effekte zu erzielen, was jedoch auch zu Bedenken hinsichtlich der Auswirkungen auf Arbeitsplätze und Urheberrechte führt. Die zunehmende Verbreitung dieser Technologie unterstreicht die Notwendigkeit für kritisches Bewusstsein und eine verstärkte Medienkompetenz, um sowohl die positiven Aspekte optimal zu nutzen als auch die Risiken zu minimieren.

Weitere Inhalte

Lennart Brauer ist Medien- und Kommunikationswissenschaftler und war zuletzt als Redakteur beim Digital-Publisher Netzpiloten tätig und arbeitet dort nun als executive assistant.