Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

Medien als (verzerrter) Spiegel der Realität? | Wenn der Schein trügt – Deepfakes und die politische Realität | bpb.de

Wenn der Schein trügt – Deepfakes und die politische Realität Auf einen Blick Was ist KI und welche Formen von KI gibt es? KI in den Sozialen Medien Deepfakes: Technische Hintergründe und Trends Fake oder Wirklichkeit: Wieso und wie leicht lassen wir uns täuschen? Anwendungsbereiche von Deepfakes Politische Manipulation und Desinformation Pornografie Diskriminierung „Softfakes“ in Wahlkämpfen Chancen für die Demokratie Deepfakes als Unterhaltung Über den Tellerrand: Virtuelle Influencer*innen Governance von Deepfakes Regulierung von Deepfakes Strafrecht und Regulierung von Deepfake-Pornografie Technische Ansätze zur Deepfake-Erkennung und Prävention Politische Medienbildung Medien als (verzerrter) Spiegel der Realität? Unterrichtsmaterialien Redaktion

Medien als (verzerrter) Spiegel der Realität? Wie KI und Deepfakes den Journalismus beeinflussen

Sabrina Harper

/ 7 Minuten zu lesen

Wie vertrauensvoll sind KI-generierte Nachrichten? Und was verändert die Möglichkeit Deepfakes zu erstellen an der alltäglichen journalistischen Praxis? | Illustration: www.leitwerk.com (© bpb, Leitwerk)

Die Entwicklung von Künstlicher Intelligenz (KI) hat seit jeher Einfluss auf den Journalismus. Vor einigen Jahren war dies allerdings noch nicht so überdeutlich spürbar wie heutzutage. Bereits zur Bundestagswahl 2015 wurden der Einsatz von KI-gestützten Systemen getestet, um Wahlergebnisse zu verarbeiten und einfache Textbausteine zu generieren. Heute ist die KI-Technologie weit fortgeschritten und Medienhäuser sowie Journalist*innen sehen sich sowohl Chancen als aus Herausforderungen gegenüber. Die steigende Notwendigkeit schneller Informationsverbreitung, die Globalisierung und weitere veränderte Rahmenbedingungen zwingen die Branche dazu, sich intensiv mit den Möglichkeiten und Risiken von KI in den Medien auseinanderzusetzen. Ein wesentlicher Aspekt ist der Einsatz von KI in Redaktionen zur Unterstützung des Berichterstattungsprozesses. Gleichzeitig müssen Journalist*innen sicherstellen, dass sie die Richtigkeit der Informationen überprüfen, da KI auch zur Erzeugung von täuschend echten, aber falschen Inhalten genutzt werden kann. Ein semi-fiktives, aber aufschlussreiches Beispiel verdeutlicht diese Problematik: Während in der Vergangenheit die gefälschten Hitler-Tagebücher durch aufwändige manuelle Arbeit erstellt wurden, könnten heute Texte oder sogar Videos mit historischen Figuren, wie Adolf Hitler mithilfe von KI rasch produziert werden. Ein aktuelles Format, das einen KI-generierten Adolf Hitler verwendet, dient dem Zweck, Aufklärung gegen rechtes Gedankengut zu betreiben und zeigt, wie KI sowohl als Werkzeug zur Täuschung als auch zur Aufklärung eingesetzt werden kann.

Auditive Deepfakes

Medien testen heutzutage immer wieder den Einsatz von KI, um neue auditive und visuelle Ausspielwege zu ermöglichen. Zum Beispiel testete RTL Deutschland teilweise den Einsatz von synthetischen Stimmen. Erste Versuche dazu gab es bereits im Jahr 2022, mit erstaunlich guten Ergebnissen, um geschriebene Onlinenachrichten auditiv zugänglich zu machen. Dazu wurde unter anderem eine digitale Kopie der Stimme des Nachrichtensprechers Maik Meuser erstellt und für Nachrichtenmeldungen eingesetzt. Das Effiziente daran ist, dass lediglich eine einmalige Stimmaufnahme erforderlich ist, aus der mithilfe von KI eine digitale Stimmkopie erstellt wird. Das Text-to-Speech-Verfahren kann dann geschriebene Texte in Audioaufnahmen umwandeln. Dies ermöglicht es Medienunternehmen, Zeit und Kosten zu sparen und gleichzeitig vertraute Stimmen zu nutzen, die das Vertrauen der Rezipient*innen in das Medium stärken.

Für Medienschaffende birgt diese technologische Möglichkeit auch ihre Tücken. So stellt sich zum Beispiel die Frage der Entlohnung, sowohl für die Erstellung der Sprachaufnahme als auch für die Exklusivität der Stimme. Auch die Verifizierung von Sprachaufnahmen wird dadurch wichtiger. da auf Online-Plattformen Stimmen leicht kopiert und missbraucht werden können. So wurde beispielsweise eine Audioproduktion der Tagesschau im Mai 2023 Opfer eines Angriffs, bei dem die Stimme eines Nachrichtenmoderators mithilfe von KI imitiert wurde, um falsche Nachrichten zu verbreiten. Solche Deepfakes können gezielt dazu eingesetzt werden, um den Journalismus zu untergraben und Vertrauen zu zerstören, indem sie die Authentizität der Berichterstattung in Frage stellen. Inzwischen gibt es sogar spezielle Plattformen, auf denen Stimmproben von prominenten Personen per Mausklick verwendet werden können. Eine sehr beliebte Stimme hat der Rapper Drake. Das ging so weit, dass Fans eigene Lieder geschrieben und mit seinem Voice-Cloning produziert haben. Für einen Musiker ein Desaster. Auch die Reputation kann Schaden nehmen: Die Schauspielerin Emma Watson wurde zum Beispiel Opfer von Voice Cloning als ihre Stimmkopie dafür genutzt wurde, aus Hitlers Mein Kampf vorzulesen. Für den Journalismus wird es dadurch immer schwerer, zwischen echten und gefälschten Inhalten zu unterscheiden. Deshalb ist gründliches Factchecking wichtiger denn je, um die Integrität und Vertrauenswürdigkeit der Berichterstattung zu gewährleisten.

Visuelle Deepfakes

Auch Videos können mithilfe neuer Technologien leicht gefälscht werden. Neben der Erstellung von entwürdigendem Bild- und Videomaterial besteht die Gefahr der Desinformation. Solche Deepfakes sind für Konsument*innen schwer zu identifizieren und können zu fehlerhaften Diskursen führen. Die Aufgabe des Journalismus besteht daher nicht nur in der Berichterstattung, sondern auch darin, gefälschte Medienstücke zu entlarven und diese Desinformationen aufzudecken. Wie schwer das ist, zeigt das Beispiel über die Einführung einer angeblichen Pfandsteuer. In einem Video ist die Außenministerin Annalena Baerbock zu sehen, wie sie den Beschluss auf einer Pressekonferenz verkündet. Das Video wurde ursprünglich mit Satire gekennzeichnet und ging auf TikTok viral. User*innen verbreiteten das Video ohne den Satirehinweis weiter und so wurde der Content von vielen für echt gehalten . Dass es niemals eine „Pfandsteuer” gab, ging in der Informationsflut unter. Obwohl seriöse Medien und Fact-Checking-Seiten schnell klarstellten, dass das Video gefälscht sei; konnte die Falschmeldung nicht vollständig relativiert werden.

Dieses Beispiel verdeutlicht auch das Konzept des „Liars Dividend“. Bei Deepfakes profitieren Lügner*innen von der Unsicherheit, die durch die Verbreitung solcher Inhalte entsteht. Auf der einen Seite können diejenigen, die Fälschungen erstellen, die Verwirrung und das Misstrauen nutzen, um ihre Lügen zu verbreiten, während es für die Opfer solcher Manipulationen schwierig ist, sich von den Vorwürfen zu befreien. Sie müssen oft zusätzliche Beweise liefern, um ihre Unschuld zu beweisen. Auf der anderen Seite geben sich auch Menschen als angebliche Opfer eines Deepfakes aus, und nutzen so die Unsicherheit, um wahre Taten, unangenehme Inhalte oder Aufnahmen zu vertuschen.

Das macht die große Herausforderung für den Journalismus in vielerlei Hinsicht deutlich. Das Dilemma zwischen der Notwendigkeit schneller Berichterstattung, der Verifizierung von Informationen und der Wahrung der Qualität des Journalismus ist besonders anspruchsvoll. Die Herausforderung für seriöse Medien besteht darin, trotz des enormen Zeitdrucks gründliche Überprüfungen durchzuführen und sich nicht von der Flut an Desinformationen überwältigen zu lassen. In dieser komplexen Informationslandschaft ist die Aufklärungsarbeit wichtiger denn je, da sie dazu beiträgt, das Vertrauen der Öffentlichkeit in die Medien aufrechtzuerhalten.

Ethische Fragestellungen zum Einsatz und Umgang mit KI

Der Einsatz von KI im Journalismus wirft eine Reihe ethischer Fragestellungen auf, insbesondere bei Technologien wie Voice-Cloning, automatisiertem Textverfassen oder Video-Deepfakes. Ein anschauliches Beispiel liefert die Werbekampagne des Springer-Verlages für die Marke BILD. In dieser Kampagne wurde ein KI-generiertes Video ausgestrahlt, das Bundeskanzler Olaf Scholz zeigt, wie er behauptet, dass, solange die Bundesregierung Mist baue, die BILD-Zeitung darüber berichten werde. Der Externer Link: Audio- und Werbespot ist (am Ende) damit gekennzeichnet, dass dieser mit einer KI erstellt wurde.

Im Oktober 2023 veröffentlichte die BILD-Zeitung ein KI-generiertes Video von Bundeskanzler Olaf Scholz zu Werbezwecken. (© YouTube: BILD)

Dieses Beispiel illustriert, wie ein Medienkonzern gezielt KI einsetzt, um die Grenze zwischen Realität und Fiktion zu verwischen. Das Video suggeriert eine Diskussion im Bundestag über die Berichterstattung der BILD-Zeitung, die in Wirklichkeit nie stattgefunden hat. Diese Praxis wirft ethische Fragen auf: Darf ein informatives Medium fiktive Inhalte kreieren und veröffentlichen, selbst wenn diese gekennzeichnet sind? Oder untergräbt dies die Glaubwürdigkeit des Journalismus?

Obwohl in beiden Beispielen Hinweise wie „KI-generiert“ vorhanden sind, konnten die Rezipient*innen die Inhalte nicht immer als Deepfakes identifizieren. Daran wird deutlich, dass künstlich erstellte Videos sehr genau hinsichtlich ihrer Echtheit beurteilt werden müssen, sowohl von Medienhäusern und Journalist*innen als auch von Individualpersonen in ihrem täglichen Medienkonsum.

In Europa wird derzeit an rechtlichen Rahmenbedingungen gearbeitet, um diese Grauzonen zu klären. Im August 2024 trat der EU Artificial Intelligence Act in Kraft. Darin wird u.a. zwischen minimalem, speziellem, hohem und inakzeptablem Risiko in der KI unterschieden. Was sich hinter diesen Begriffen verbirgt ist noch nicht abschließend geklärt. Bereits vor diesem europäischen KI-Gesetz haben journalistische Vereinigungen, Verbände, Initiativen und Medienhäuser mehrere Leitfäden veröffentlicht, so zum Beispiel die Bayerische Landeszentrale für neue Medien (BLM). Dennoch bleibt es den Redaktionen (noch) überlassen, wie sie mit KI-generierten Inhalten umgehen.

Diese Beispiele zeigen nur einen Teil der Problematik auf. Rezipient*innen sollten sich bewusst sein, dass viele Deepfakes nicht gekennzeichnet sind und gezielt zur Desinformation eingesetzt werden. Für Laien wird es zunehmend schwieriger, solche manipulierten Inhalte zu erkennen, was die Verantwortung für genaue Informationsüberprüfung sowohl auf Seiten der Medien als auch der Konsument*innen erhöht.

Die Aufgabe des Journalismus
– Was hat sich verändert?

Im Hinblick auf diese Veränderungen hat der Journalismus heutzutage weitaus mehr als nur eine reine Informationspflicht. Der Faktencheck und die Kontextualisierung von Informationen sind heute wesentliche Aufgaben im professionellen Journalismus. Das hat zur Folge, dass mehr spezialisiertes Personal und neue Strategien zur Validierung von Fakten benötigt werden. Die New York Times nutzt beispielsweise KI, um Daten und Sekundärquellen zu validieren und die Genauigkeit ihrer Berichterstattung zu gewährleisten. Während bis hin zu den 90er Jahren der Videobeweis oder die Audioaufnahme als unbestreitbare Beweisstücke galten, haben durch technologische Entwicklungen wie Deepfakes diese sicheren Beweisstücke an Glaubwürdigkeit eingebüßt. Deshalb ist es nun Aufgabe des Journalismus, Audio- und Videobeweise durch zusätzliche Belege zu untermauern und Sekundärquellen kritisch zu überprüfen.

Zudem muss sich der Journalismus als seriöses Medium durch Transparenz und Offenheit etablieren. Das heißt in der Praxis, dass Medien Einblick in ihre Arbeitsweisegewähren und den Kontext ihrer Berichterstattung klar und verständlich darstellen müssen.

Schließlich sollten traditionelle journalistische Formate überdacht werden, insbesondere wenn es um den Umgang mit Deepfakes geht. Das etablierte Vorgehen, mit Headline, Teaser und Text kann irreführend sein, wenn nicht sofort in der Headline und dem Teaser auf mögliche Deepfakes hingewiesen wird. Die Berichterstattung muss sich anpassen und gegebenenfalls neue Formate entwickeln, um den Herausforderungen der digitalen Medienwelt gerecht zu werden.

Fazit

Der moderne Journalismus steht vor erheblichen Herausforderungen durch neue Technologien wie KI und Deepfakes. Neben der traditionellen Informationspflicht sind präzise Faktenchecks und Kontextualisierungen unerlässlich geworden. Der Einsatz von spezialisierten Strategien und Tools, wie die Nutzung von KI zur Datenvalidierung, ist dabei unverzichtbar. Transparenz und Offenheit sind entscheidend, um das Vertrauen der Rezipient*innen zu gewinnen und zu bewahren. Darüber hinaus erfordert die schnelle Verbreitung von Desinformationen eine Anpassung traditioneller journalistischer Formate, um die Öffentlichkeit effektiv und korrekt zu informieren. Nur so kann der Journalismus seine zentrale Rolle in der Gesellschaft weiterhin erfüllen und sich gegen die Bedrohungen durch digitale Fälschungen behaupten.

Weitere Inhalte

Sabrina Harper ist eine erfahrene Medienexpertin und ausgebildete Journalistin mit einem besonderen Fokus auf Innovation, Transformation und Diversity in der Medienlandschaft. Als Host von Medien-Podcasts wie "Innovation Minutes" und "Media for Peace" setzt sie Akzente in der Diskussion um die Zukunft der Medien. Ihre Arbeit im Media Lab Bayern unterstreicht ihre Rolle in der digitalen Kommunikation und ihrer Weiterentwicklung.