Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

Fake oder Wirklichkeit: Wieso und wie leicht lassen wir uns täuschen? | Wenn der Schein trügt – Deepfakes und die politische Realität | bpb.de

Wenn der Schein trügt – Deepfakes und die politische Realität Auf einen Blick Was ist KI und welche Formen von KI gibt es? KI in den Sozialen Medien Deepfakes: Technische Hintergründe und Trends Fake oder Wirklichkeit: Wieso und wie leicht lassen wir uns täuschen? Anwendungsbereiche von Deepfakes Politische Manipulation und Desinformation Pornografie Diskriminierung „Softfakes“ in Wahlkämpfen Chancen für die Demokratie Deepfakes als Unterhaltung Über den Tellerrand: Virtuelle Influencer*innen Governance von Deepfakes Regulierung von Deepfakes Strafrecht und Regulierung von Deepfake-Pornografie Technische Ansätze zur Deepfake-Erkennung und Prävention Politische Medienbildung Medien als (verzerrter) Spiegel der Realität? Unterrichtsmaterialien Redaktion

Fake oder Wirklichkeit: Wieso und wie leicht lassen wir uns täuschen? Warum uns Bilder täuschen

Alexander Godulla

/ 7 Minuten zu lesen

Täuschend echte Bilder werden durch Deepfakes generiert. Wie können wir da noch Realität von Fake unterscheiden? Dieser Spiegel mit seiner endlos Spiegelung ist zumindest nicht real, sondern KI-generiert. | Illustration: www.leitwerk.com (© bpb)

Warum uns Bilder täuschen

Einen zentralen Unterschied zwischen Texten und Bildern erleben Sie jetzt in diesem Augenblick: Um diese Worte und Sätze zu lesen und zu interpretieren, müssen Sie sich aktiv auf die Rezeptionssituation einlassen. Bei Fotos oder Videos ist das völlig anders: Sie sind „schnelle Schüsse ins Gehirn“, die unwillkürlich und automatisch rezipiert werden. Obwohl das Auge dabei eine offensichtlich zentrale Rolle spielt, muss der eigentliche Prozess der visuellen Wahrnehmung als psychisch beschrieben werden. Neben dem eigentlichen Sehsinn ist also auch das Gehirn entscheidend beteiligt am Unterscheiden von Wichtigem und Unwichtigem sowie dem Interpretieren und Vergleichen mit bereits vorhandenen Erinnerungen.

Evolutionsbiologisch betrachtet führt dies zu einem folgenschweren Dilemma: Während die Existenz unserer Spezies Homo sapiens seit mehreren hunderttausend Jahren fossil belegt ist, sind wir mit der Möglichkeit realistisch wirkender Bildfälschungen erst seit dem 19. Jahrhundert konfrontiert. Ursprünglich ist es also rational, visuelle Sinnesreize als sehr glaubwürdig zu interpretieren. Sie erzählten von einer tatsächlichen Welt voller Chancen und Gefahren, auf die man im Interesse des eigenen Überlebens rasch reagieren musste. Dementsprechend stark reagieren wir bis heute auf Bildmedien, obwohl wir immer mehr Täuschungsrisiken ausgesetzt sind. In Berufsgruppen, die professionell mit Fotos und Videos arbeiten, wird seit langem über Recherchestrategien diskutiert, mit deren Hilfe Fälschungen zeitsparend identifiziert werden können. Im Bereich der Deepfakes können Softwarelösungen dabei bisher nicht die erhoffte Sicherheit garantieren. Stattdessen empfiehlt es sich beispielsweise im Journalismus, mögliche Fälschungen zur Quelle zurückzuverfolgen, das Material mit ähnlichen Bildern vom gleichen Ort zu vergleichen oder generell die Plausibilität des Gezeigten zu hinterfragen.

Confirmation Bias –
Wir sehen, was wir sehen wollen

Die menschliche Wahrnehmung arbeitet mit vielen Filtern. Grundlegende Gedanken dazu verdanken wir dem Psychologen Daniel Kahneman: Er unterscheidet in schnelles und langsames Denken. Das langsame Denken folgt dem Prinzip der Logik, ist berechnend und geschieht bewusst. Zugleich ist es jedoch vergleichsweise mühsam und anstrengend. Um diesem Problem aus dem Weg zu gehen, folgen wir unbewusst und automatisch meist der schnellen Form des Denkens: Hier orientieren wir uns mit Hilfe von Emotionen und vereinfachen die Wirklichkeit stark auf sogenannte Stereotypen. Das schont zwar die Ressourcen des Gehirns erheblich, öffnet jedoch einem gravierenden Problem Tür und Tor: Wir urteilen unaufhörlich auf der Basis kognitiver Verzerrungen, die im Englischen auch Bias genannt werden. Bias ist dabei nicht nur ein Phänomen, das die Wahrnehmung betrifft. Sie beeinflusst auch das Gedächtnis, das Denken selbst sowie unsere Urteile. Die Liste solcher Verzerrungen ist lang und regelmäßig Gegenstand populärwissenschaftlicher Diskurse. Mit Blick auf Bilder spielt der Confirmation Bias, also der Bestätigungsfehler, eine große Rolle. Dieses seit den 1960er-Jahren bekannte Phänomen bezieht sich auf die menschliche Neigung, unbewusst Informationen so auszuwählen und zu filtern, dass sie unseren bereits vorhandenen Erwartungen entsprechen, sie also bestätigen.

Ein besonders prominentes Beispiel für dieses Problem stellt der US-Wahlkampf des Jahres 2024 dar. Nachdem Donald Trump am 13. Juli bei einem Wahlkampfauftritt angeschossen wird, entsteht ein Foto, das sofort zur Bildikone wird: Trump mit kämpferisch erhobener Faust, beschirmt vom Secret Service. Im Hintergrund weht die amerikanische Fahne. Aufgenommen hat es der routinierte Fotograf Evan Vucci, der im Anschluss sagen wird: „Das Besondere an der Fotografie ist, dass zwei Menschen genau das gleiche Bild sehen und völlig unterschiedlich darauf reagieren können.“ Während Trumps Anhänger das Bild als authentischen Beleg seiner Tatkraft feiern, werden parallel sofort Verschwörungsmythen verbreitet: Der Republikaner habe das Attentat selbst inszeniert, um seine Wahlchancen zu erhöhen. Dass eine solche Inszenierung für ihn mit hoher Wahrscheinlichkeit mit dem Tod geendet hätte, wird dabei – im Sinne eines langsamen Denkens – offensichtlich nicht weiter hinterfragt.

Was wissen Menschen in Deutschland über Deepfakes?

Wenn im deutschen Journalismus über Deepfakes diskutiert wird, taucht regelmäßig eine bestimmte Zahl auf. 96 Prozent – so hoch soll angeblich der Anteil von Deepfake-Videos sein, die pornografische Darstellungen beinhalten. Dieser alarmierend hohe Wert wurde zwar vor relativ langer Zeit gemessen (die Studie stammt von 2019), doch er ist heute nicht weniger aktuell (s. bspw. Externer Link: Studie der Sicherheitsberatungsfirma Home Security Heroes von 2023) und prägt den öffentlichen Diskurs bis heute. Deepfakes werden vorrangig im Zusammenhang mit Interner Link: Pornografie erzeugt und damit in Verbindung gebracht . Einen weiteren wichtigen Diskussionsgegenstand stellt die Sorge dar, dass Deepfakes bewusst missbraucht werden können, um Falschinformationen im Internet zu verbreiten. Dies ordnet Deepfakes außerdem im größeren Feld der Fake-News-Debatte ein. Als wichtiger Befund ist also zunächst festzuhalten: Obwohl Deepfakes basierend auf künstlicher Intelligenz Personen in jedem beliebigen fiktiven Szenario darstellen können, ist die vorherrschende Perspektive vorranging auf Risiken der Technologie gerichtet. Vorhandene Potenziale auf Feldern wie Bildung, Kunst, Kultur, Werbung oder auch Journalismus werden demgegenüber nur am Rande erwähnt.

Im Oktober 2022 wurden 1421 Menschen in Deutschland zu ihrem Wissen über und ihre Perspektive auf Deepfakes befragt. Aktuell liegt keine andere Studie vor, die nach Alter und Geschlecht repräsentativ wäre. Zum damaligen Zeitpunkt glaubten rund drei Viertel der Befragten, bisher noch keinen bewussten Kontakt mit Deepfakes gehabt zu haben. Zugleich konnte mit Hilfe von 13 Quizfragen ermittelt werden, dass rund zwei Drittel der Menschen keinerlei Vorkenntnisse bei dem Thema haben. Mangels Primärerfahrung stellt die bereits erwähnte Medienberichterstattung für die meisten Deutschen daher eine wichtige Informationsquelle dar.
In Einklang mit der dort anzutreffenden Schwerpunktsetzung halten fast alle Befragten Deepfakes für eine hohe (69,9 Prozent) bzw. mittlere (24,3 Prozent) Gefahr. Nur 5,8 Prozent schätzen die mit Deepfakes verbundenen Risiken als niedrig ein. Je jünger und gebildeter eine Person ist, desto eher hat sie auch eine Vorstellung von Chancen und (positiven) Einsatzfeldern für Deepfakes. Die größten Ängste mit Blick auf Deepfakes stellen (in dieser Reihenfolge) die Sorge dar, dass Deepfakes immer schwerer erkannt werden können, dass ihre Zahl ansteigt, dass sie die öffentliche Meinung beeinflussen, dass die Grenze zwischen Realität und Fiktion verschwimmt und dass die Demokratie generell durch sie Schaden nimmt. Vorteile sehen die Befragten (ebenfalls in dieser Reihenfolge) für die Videospiel-, Mode- und Kunstbranche. Dennoch stimmt nur weniger als die Hälfte der Menschen in Deutschland der Aussage zu, dass Deepfakes auch für sinnvolle Zwecke genutzt werden können (44,8 Prozent).

Die Mehrheit der Menschen sieht sich dabei nicht in der Lage, mit Deepfakes kompetent umzugehen. Jeweils mehr als 60 Prozent sind nicht zuversichtlich einen Deepfake selbst zu erkennen oder zwischen einem echten Video und einem Deepfake-Video unterscheiden zu können. Nur 17 Prozent sind im Umkehrschluss zuversichtlich, nicht auf den Inhalt eines Deepfake-Videos hereinzufallen. Die Ergebnisse legen nahe, dass das Aufkommen von Deepfakes insgesamt dafür sorgt, dass Menschen Medien weniger Vertrauen entgegenbringen – und zwar unabhängig davon, ob sie tatsächlich selbst mit Deepfakes in Berührung kommen oder nicht.

Der Interner Link: Journalismus ist daher in besonderem Maß von Deepfake-Technologie betroffen . Was aber weiß man in diesem für das Funktionieren einer Demokratie sehr wichtigen Berufsfeld über die verhältnismäßig junge Technologie? Eine im Jahr 2023 abgeschlossene Befragung von 20 Expert:innen aus der journalistischen Praxis und der Technologiebranche zeigt, dass in der professionellen Kommunikation Deepfakes einerseits als Bedrohung wahrgenommen werden: Redaktionen rechnen damit, noch intensiver als bisher die Echtheit von Bild-, Ton- und Videomaterial überprüfen zu müssen – und zwar sowohl mit Hilfe von Software, als auch durch das Festhalten an journalistischen Grundprinzipien wie Genauigkeit oder Transparenz. Chancen werden aktuell beispielsweise dort gesehen, wo Inhalte personalisiert werden sollen: Mit Hilfe von Deepfakes können beispielsweise virtuelle Personen generiert werden, die passend zu den Bedürfnissen des Publikums gestaltet worden sind.

Weitere Inhalte

Prof. Dr. Alexander Godulla ist Professor für Empirische Kommunikations- und Medienforschung am Institut für Kommunikations- und Medienwissenschaft (IfKMW) der Universität Leipzig. Zugleich ist er Programmdirektor des internationalen Double-Degree-Masterstudiengangs Global Mass Communication.