Die Entwicklung von Künstlicher Intelligenz (KI) hat seit jeher Einfluss auf den Journalismus. Vor einigen Jahren war dies allerdings noch nicht so überdeutlich spürbar wie heutzutage. Bereits zur Bundestagswahl 2015 wurden der Einsatz von KI-gestützten Systemen getestet, um Wahlergebnisse zu verarbeiten und einfache Textbausteine zu generieren. Heute ist die KI-Technologie weit fortgeschritten und Medienhäuser sowie Journalist*innen sehen sich sowohl Chancen als aus Herausforderungen gegenüber. Die steigende Notwendigkeit schneller Informationsverbreitung, die Globalisierung und weitere veränderte Rahmenbedingungen zwingen die Branche dazu, sich intensiv mit den Möglichkeiten und Risiken von KI in den Medien auseinanderzusetzen. Ein wesentlicher Aspekt ist der Einsatz von KI in Redaktionen zur Unterstützung des Berichterstattungsprozesses. Gleichzeitig müssen Journalist*innen sicherstellen, dass sie die Richtigkeit der Informationen überprüfen, da KI auch zur Erzeugung von täuschend echten, aber falschen Inhalten genutzt werden kann. Ein semi-fiktives, aber aufschlussreiches Beispiel verdeutlicht diese Problematik: Während in der Vergangenheit die gefälschten Hitler-Tagebücher durch aufwändige manuelle Arbeit erstellt wurden, könnten heute Texte oder sogar Videos mit historischen Figuren, wie Adolf Hitler mithilfe von KI rasch produziert werden. Ein aktuelles Format, das einen KI-generierten Adolf Hitler verwendet, dient dem Zweck, Aufklärung gegen rechtes Gedankengut zu betreiben und zeigt, wie KI sowohl als Werkzeug zur Täuschung als auch zur Aufklärung eingesetzt werden kann
Auditive Deepfakes
Medien testen heutzutage immer wieder den Einsatz von KI, um neue auditive und visuelle Ausspielwege zu ermöglichen. Zum Beispiel testete RTL Deutschland teilweise den Einsatz von synthetischen Stimmen. Erste Versuche dazu gab es bereits im Jahr 2022, mit erstaunlich guten Ergebnissen, um geschriebene Onlinenachrichten auditiv zugänglich zu machen. Dazu wurde unter anderem eine digitale Kopie der Stimme des Nachrichtensprechers Maik Meuser erstellt und für Nachrichtenmeldungen eingesetzt
Für Medienschaffende birgt diese technologische Möglichkeit auch ihre Tücken. So stellt sich zum Beispiel die Frage der Entlohnung, sowohl für die Erstellung der Sprachaufnahme als auch für die Exklusivität der Stimme. Auch die Verifizierung von Sprachaufnahmen wird dadurch wichtiger. da auf Online-Plattformen Stimmen leicht kopiert und missbraucht werden können. So wurde beispielsweise eine Audioproduktion der Tagesschau im Mai 2023 Opfer eines Angriffs, bei dem die Stimme eines Nachrichtenmoderators mithilfe von KI imitiert wurde, um falsche Nachrichten zu verbreiten. Solche Deepfakes können gezielt dazu eingesetzt werden, um den Journalismus zu untergraben und Vertrauen zu zerstören, indem sie die Authentizität der Berichterstattung in Frage stellen.
Visuelle Deepfakes
Auch Videos können mithilfe neuer Technologien leicht gefälscht werden. Neben der Erstellung von entwürdigendem Bild- und Videomaterial besteht die Gefahr der Desinformation. Solche Deepfakes sind für Konsument*innen schwer zu identifizieren und können zu fehlerhaften Diskursen führen. Die Aufgabe des Journalismus besteht daher nicht nur in der Berichterstattung, sondern auch darin, gefälschte Medienstücke zu entlarven und diese Desinformationen aufzudecken. Wie schwer das ist, zeigt das Beispiel über die Einführung einer angeblichen Pfandsteuer. In einem Video ist die Außenministerin Annalena Baerbock zu sehen, wie sie den Beschluss auf einer Pressekonferenz verkündet. Das Video wurde ursprünglich mit Satire gekennzeichnet und ging auf TikTok viral. User*innen verbreiteten das Video ohne den Satirehinweis weiter und so wurde der Content von vielen für echt gehalten . Dass es niemals eine „Pfandsteuer” gab, ging in der Informationsflut unter. Obwohl seriöse Medien und Fact-Checking-Seiten schnell klarstellten, dass das Video gefälscht sei; konnte die Falschmeldung nicht vollständig relativiert werden.
Dieses Beispiel verdeutlicht auch das Konzept des „Liars Dividend“. Bei Deepfakes profitieren Lügner*innen von der Unsicherheit, die durch die Verbreitung solcher Inhalte entsteht. Auf der einen Seite können diejenigen, die Fälschungen erstellen, die Verwirrung und das Misstrauen nutzen, um ihre Lügen zu verbreiten, während es für die Opfer solcher Manipulationen schwierig ist, sich von den Vorwürfen zu befreien. Sie müssen oft zusätzliche Beweise liefern, um ihre Unschuld zu beweisen. Auf der anderen Seite geben sich auch Menschen als angebliche Opfer eines Deepfakes aus, und nutzen so die Unsicherheit, um wahre Taten, unangenehme Inhalte oder Aufnahmen zu vertuschen.
Das macht die große Herausforderung für den Journalismus in vielerlei Hinsicht deutlich. Das Dilemma zwischen der Notwendigkeit schneller Berichterstattung, der Verifizierung von Informationen und der Wahrung der Qualität des Journalismus ist besonders anspruchsvoll. Die Herausforderung für seriöse Medien besteht darin, trotz des enormen Zeitdrucks gründliche Überprüfungen durchzuführen und sich nicht von der Flut an Desinformationen überwältigen zu lassen. In dieser komplexen Informationslandschaft ist die Aufklärungsarbeit wichtiger denn je, da sie dazu beiträgt, das Vertrauen der Öffentlichkeit in die Medien aufrechtzuerhalten.
Ethische Fragestellungen zum Einsatz und Umgang mit KI
Der Einsatz von KI im Journalismus wirft eine Reihe ethischer Fragestellungen auf, insbesondere bei Technologien wie Voice-Cloning, automatisiertem Textverfassen oder Video-Deepfakes. Ein anschauliches Beispiel liefert die Werbekampagne des Springer-Verlages für die Marke BILD. In dieser Kampagne wurde ein KI-generiertes Video ausgestrahlt, das Bundeskanzler Olaf Scholz zeigt, wie er behauptet, dass, solange die Bundesregierung Mist baue, die BILD-Zeitung darüber berichten werde. Der Externer Link: Audio- und Werbespot ist (am Ende) damit gekennzeichnet, dass dieser mit einer KI erstellt wurde
Dieses Beispiel illustriert, wie ein Medienkonzern gezielt KI einsetzt, um die Grenze zwischen Realität und Fiktion zu verwischen. Das Video suggeriert eine Diskussion im Bundestag über die Berichterstattung der BILD-Zeitung, die in Wirklichkeit nie stattgefunden hat. Diese Praxis wirft ethische Fragen auf: Darf ein informatives Medium fiktive Inhalte kreieren und veröffentlichen, selbst wenn diese gekennzeichnet sind? Oder untergräbt dies die Glaubwürdigkeit des Journalismus?
Obwohl in beiden Beispielen Hinweise wie „KI-generiert“ vorhanden sind, konnten die Rezipient*innen die Inhalte nicht immer als Deepfakes identifizieren. Daran wird deutlich, dass künstlich erstellte Videos sehr genau hinsichtlich ihrer Echtheit beurteilt werden müssen, sowohl von Medienhäusern und Journalist*innen als auch von Individualpersonen in ihrem täglichen Medienkonsum.
In Europa wird derzeit an rechtlichen Rahmenbedingungen gearbeitet, um diese Grauzonen zu klären. Im August 2024 trat der EU Artificial Intelligence Act in Kraft. Darin wird u.a. zwischen minimalem, speziellem, hohem und inakzeptablem Risiko in der KI unterschieden
Diese Beispiele zeigen nur einen Teil der Problematik auf. Rezipient*innen sollten sich bewusst sein, dass viele Deepfakes nicht gekennzeichnet sind und gezielt zur Desinformation eingesetzt werden. Für Laien wird es zunehmend schwieriger, solche manipulierten Inhalte zu erkennen, was die Verantwortung für genaue Informationsüberprüfung sowohl auf Seiten der Medien als auch der Konsument*innen erhöht.
Die Aufgabe des Journalismus
– Was hat sich verändert?
Im Hinblick auf diese Veränderungen hat der Journalismus heutzutage weitaus mehr als nur eine reine Informationspflicht. Der Faktencheck und die Kontextualisierung von Informationen sind heute wesentliche Aufgaben im professionellen Journalismus. Das hat zur Folge, dass mehr spezialisiertes Personal und neue Strategien zur Validierung von Fakten benötigt werden. Die New York Times nutzt beispielsweise KI, um Daten und Sekundärquellen zu validieren und die Genauigkeit ihrer Berichterstattung zu gewährleisten. Während bis hin zu den 90er Jahren der Videobeweis oder die Audioaufnahme als unbestreitbare Beweisstücke galten, haben durch technologische Entwicklungen wie Deepfakes diese sicheren Beweisstücke an Glaubwürdigkeit eingebüßt. Deshalb ist es nun Aufgabe des Journalismus, Audio- und Videobeweise durch zusätzliche Belege zu untermauern und Sekundärquellen kritisch zu überprüfen.
Zudem muss sich der Journalismus als seriöses Medium durch Transparenz und Offenheit etablieren. Das heißt in der Praxis, dass Medien Einblick in ihre Arbeitsweisegewähren und den Kontext ihrer Berichterstattung klar und verständlich darstellen müssen.
Schließlich sollten traditionelle journalistische Formate überdacht werden, insbesondere wenn es um den Umgang mit Deepfakes geht. Das etablierte Vorgehen, mit Headline, Teaser und Text kann irreführend sein, wenn nicht sofort in der Headline und dem Teaser auf mögliche Deepfakes hingewiesen wird. Die Berichterstattung muss sich anpassen und gegebenenfalls neue Formate entwickeln, um den Herausforderungen der digitalen Medienwelt gerecht zu werden.
Fazit
Der moderne Journalismus steht vor erheblichen Herausforderungen durch neue Technologien wie KI und Deepfakes. Neben der traditionellen Informationspflicht sind präzise Faktenchecks und Kontextualisierungen unerlässlich geworden. Der Einsatz von spezialisierten Strategien und Tools, wie die Nutzung von KI zur Datenvalidierung, ist dabei unverzichtbar. Transparenz und Offenheit sind entscheidend, um das Vertrauen der Rezipient*innen zu gewinnen und zu bewahren. Darüber hinaus erfordert die schnelle Verbreitung von Desinformationen eine Anpassung traditioneller journalistischer Formate, um die Öffentlichkeit effektiv und korrekt zu informieren. Nur so kann der Journalismus seine zentrale Rolle in der Gesellschaft weiterhin erfüllen und sich gegen die Bedrohungen durch digitale Fälschungen behaupten.