Algorithmen der künstlichen Intelligenz (KI) werden bei unseren täglichen Aufgaben eingesetzt, von Suchmaschinen über E-Mail-Filter bis hin zu Inhaltsempfehlungen. Die Berichterstattung über KI in den Medien lässt an zwei Szenarien glauben. Ein positives Szenario, in dem die KI alle Aufgaben automatisiert und alle Probleme löst, und ein Untergangsszenario, in dem die KI die Menschheit übernimmt. In den Medien wird jedoch nur selten konstruktiv über die realistischen Gefahren berichtet, die mit KI einhergehen, und darüber, wie sich KI auf uns in den Kontexten Gesellschaft, Politik, Wirtschaft, Geschlecht, Ethnie, sexueller Orientierung, sozialer Klasse usw. auswirken könnte. Ein Aspekt der Auswirkungen von KI auf unsere Gesellschaft ist die Konsolidierung der bestehenden Machtdynamiken. Wissenschaftliche Forschung hat gezeigt, dass KI-basierte Systeme dazu neigen, schädliche soziale Vorurteile zu reproduzieren. Das wiederum führt zur Konsolidierung dysfunktionaler sozialer Strukturen, die historisch begünstigte Menschen bevorzugen, wie die Bevorzugung von Männern gegenüber Frauen in MINT-Berufen. Deepfake-Videos und die KI-Systeme, die sie erstellen, sind eine weitere Manifestation dieser Machtkonsolidierung, welche potenzielle Risiken mit sich bringen, insbesondere für Frauen.
Deepfake-Anwendungen verwenden übliche KI-Algorithmen, um gefälschte Inhalte zu erzeugen. Standard-KI-Algorithmen wie generative adversarial networks (GAN), variational autoencoders (VAE) und long short-term memory (LSTM) werden beim Training von Deepfake-Anwendungen verwendet, um die Gesichter von Personen in zwei verschiedenen Videos zu vertauschen oder die Gesichtsausdrücke einer Person in einem Video auf die Person in einem anderen Video zu übertragen. Die Open-Source Deepfake-Anwendungen FaceSwap und DeepFaceLab verwenden z.B. VAE-Algorithmen. Ähnlich wie andere KI-basierte Systeme "lernen" diese Deepfake-Anwendungen eigentlich nichts über die Aufgabe, die sie erfüllen sollen. Vielmehr lernen sie Scheinkorrelationen zwischen einer Gruppe von Variablen, die in den Trainingsdatensätzen enthalten sind. KI-Unternehmen behaupten, dass ihre Systeme, die richtigen Entscheidungen treffen, aber es gibt keine Garantie dafür, dass sie dies aus den richtigen Gründen tun. Daher wird der Begriff "Black Box" verwendet, um KI-basierte Systeme zu beschreiben.
In diesem Artikel stellen wir zunächst die Risiken des Bias (deutsch Voreingenommenheit) und der Diskriminierung in KI-Algorithmen vor. Als KI-Systeme mit Bias betrachten wir “Computersysteme, die bestimmte Personen oder Personengruppen systematisch und ungerechtfertigt diskriminieren und andere bevorzugen“. Anschließend werfen wir dann einen genaueren Blick auf die Diskriminierung in Deepfake-Videos, Deepfake-Anwendungen und Deepfake-Erkennungsmodellen.
Diskriminierung in der KI
Es gibt umfangreiche Literatur über Vorurteile und Diskriminierung in KI-Algorithmen und KI-Anwendungen. Dies hat zur Entstehung des neuen Forschungsbereiches “Responsible AI” (deutsch: Verantwortungsvolle KI) geführt, der darauf abzielt, Probleme der aktuellen KI-Algorithmen zu diskutieren und mögliche Wege zur Entwicklung zuverlässigerer und verantwortungsvoller KI-Algorithmen zu erforschen. Zu den am meisten diskutierten Problemen gehört die Unfairness in der KI, die dazu führt, dass KI-basierte Systeme diskriminierende Entscheidungen zwischen Menschen auf der Grundlage von Merkmahlen wie Ethnie, Geschlecht, Religion usw. treffen. Eines der bekanntesten Beispiele für diskriminierende Entscheidungen, die von einem KI-basierten System getroffen wurden, ist der COMPAS-Algorithmus. COMPAS ist ein Risikobewertungstool, das versucht, die Wahrscheinlichkeit, dass ein Straftäter rückfällig wird, zu messen. Im Jahr 2016 stellte ProPublica fest, dass schwarze Angeklagte häufiger als weiße Angeklagte fälschlicherweise mit einem höheren Rückfallrisiko behaftet eingestuft werden, während weiße Angeklagte häufiger als schwarze Angeklagte fälschlicherweise mit einem geringen Risiko behaftet eingestuft werden. Ähnliche Beispiele für KI-Diskriminierung finden sich bei der LGBTQ-Gemeinschaft, älteren Menschen, Muslimen, Juden und Menschen mit Behinderungen.
Es gibt viele Gründe für Bias in KI-Algorithmen. Einer dieser Gründe ist, dass den Forschern und Ingenieuren, die KI-Algorithmen entwickeln, die sozialen und historischen Kontexte der Daten dieser KI-Algorithmen fehlen. Ein Beispiel ist, wenn KI-Forscher und Entwickler Daten von Social-Media-Plattformen sammeln, um KI-Algorithmen zu trainieren, ohne den sozialen Kontext zu berücksichtigen, aus dem wir wissen, dass Hassrede in den sozialen Medien besonders gegen Randgruppen gerichtet ist. Dies führt dazu, dass KI-Algorithmen beleidigende Inhalte gegenüber diesen Randgruppen erzeugen.
Ein weiterer Grund für den Bias in KI-Algorithmen ist, dass KI-Forscher und Entwickler KI-Systeme auf bestehenden diskriminierenden Systemen aufbauen. Wenn, zum Beispiel, KI-Empfehlungssysteme Informationen über die ethnische Zugehörigkeit einer Person aus deren Namen, Beiträgen oder sozialem Netzwerk ableiten, um ihre Empfehlungen zu personalisieren, dann verwenden Sie die ethnische Zugehörigkeit als Stellvertreter für die Individualität. Dadurch halten KI-Algorithmen die rassistische Ansicht aufrecht, dass Menschen, die einer bestimmten Gruppe angehören, ähnliche Vorlieben haben müssen.
Rechenschaftspflicht - oder besser gesagt, ihr Fehlen, ist ein weiterer Grund für den Bias von KI-Algorithmen. Mangelnde Rechenschaftspflicht, insbesondere bei großen Tech-Unternehmen, die kommerzielle KI-Algorithmen entwickeln, ermöglicht es Tech-Unternehmen, unterdrückerische KI-Systeme zu entwickeln und zu behaupten, dass es sich dabei nur um "Pannen" handelt. In der Tat verkaufen große Tech-Unternehmen ihre KI-Algorithmen als Black Boxen, ohne zu erklären, wie ihre Modelle Entscheidungen treffen. Im Jahr 2018 rief The Justice League, eine Gruppe von KI-Ethikern und -Aktivisten, den sogenannten Safe Face Pledge ins Leben, um Unternehmen die Möglichkeit zu geben, sich öffentlich dazu zu verpflichten, den Missbrauch von Gesichtsanalyse-Technologien einzudämmen und sicherzustellen, dass Computer-Vision-Modelle Menschen nicht aufgrund ihrer Hautfarbe diskriminieren. Allerdings war kein großes Technologieunternehmen bereit, die Erklärung zu unterzeichnen.
Ein weiterer Grund für das diskriminierende Verhalten von KI-Algorithmen ist, dass die Entwickler dieser Systeme zumeist weiße, heterosexuelle, körperlich gesunde weiße Männer sind. In Externer Link: On the Origins of Bias in NLP through the Lens of the Jim Code wird argumentiert, dass dies dazu führt, dass KI-Algorithmen entwickelt werden, die nicht für jeden in der beabsichtigten Weise funktionieren. Zum Beispiel Gesichtserkennungssysteme, die nur bei Menschen mit heller Haut funktionieren. Auch bei der Zielkundschaft der KI-Algorithmen mangelt es an Vielfalt. Da die meisten dieser Technologien teuer in der Anschaffung sind, konzentrieren sich die Entwickler dieser Algorithmen auf die Kunden, die es sich vermutlich leisten können, und das sind meist weiße, kräftige, heterosexuelle Männer.
Darüber hinaus ist das mangelnde öffentliche Bewusstsein zu Bias bei KI-Algorithmen eine Folge der mathematischen und statistischen Terminologie und des Jargons, der im Diskurs verwendet wird und den die meisten Nichtfachleute nicht verstehen können. Dieses mangelnde Verständnis der Funktionsweise von KI-Systemen und ihrer Grenzen führte dazu, dass die Menschen KI-Systemen zu viel Vertrauen schenken und Technochauvinismus verstärken, der davon ausgeht, dass Computer und Berechnungsmethoden bessere Lösungen für alle Probleme bieten können.
Das fehlende öffentliche Bewusstsein und der Technochauvinismus sind ein wichtiger Grund dafür, dass sich wichtige Institutionen wie Schulen und Justizsysteme bei wichtigen Entscheidungen auf KI-basierte Systeme verlassen, obwohl sie die Technologie und ihre Funktionsweise nur unzureichend verstehen. Wir haben das Risiko gesehen, das mit dem Einsatz von COMPAS in der New Yorker Justiz verbunden ist. Auch der Einsatz von KI-Technologien in Schulen birgt Risiken. Zu diesen Risiken gehören der Bias in KI-Benotungssystemen. Im Jahr 2020 verwendete Großbritannien einen Direct Center Level Performance Algorithmus, der von Experten entwickelt wurde, die nicht in KI geschult waren. Er wurde für die Benotung von Abiturienten verwendet und führte dazu, dass Schüler an staatlichen Schulen schlechtere Noten erhielten und Schüler an Privatschulen bessere Noten. Es besteht auch die Gefahr einer verzerrten Benotung, wenn die Benotungssysteme auf Daten in einer bestimmten Sprache oder einem bestimmten Dialekt trainiert werden, die nicht die Muttersprache oder der Dialekt einiger Schüler sind. In der Literatur wurde bereits nachgewiesen, dass KI-Systeme zwischen Menschen aufgrund ihrer Dialekte unterscheiden. Dieses Risiko wird durch die Tatsache verschärft, dass KI-Systeme nicht transparent sind und keine erklärbaren Gründe für ihre Noten liefern können. Das bedeutet nicht, dass es keine voreingenommenen Lehrer gibt und dass ihre Benotung auch diskriminierend sein könnte. Mit Technochauvinismus und der Annahme, dass KI-Systeme objektiv und neutral sind, könnten wir jedoch die oben genannten Probleme etablieren. Es besteht auch die Gefahr, dass KI-Technologien im Bildungsbereich dazu verwendet werden, herrschende Ideologien von angemessenem Verhalten zu verstärken, die das Verhalten von ethnischen Minderheiten, LGBTQ, behinderten und anderen marginalisierten Schülern für unangemessen halten.
Diese Arten der Diskriminierung in KI-Systemen gibt es bei allen Anwendungen von KI-Systemen, auch bei Deepfake-Anwendungen. Im nächsten Abschnitt diskutieren wir verschiedene Aspekte der Diskriminierung in Deepfake-Videos, Deepfake-Anwendungen und Deepfake-Erkennungsmodelle.
Diskriminierung und Deepfakes
Deepfake-Videos sind online weit verbreitet. Eine Studie aus dem Jahr 2023 hat ergeben, dass das Deepfake-Phänomen schnell wächst. Die Zahl der Deepfake-Videos im Internet erreicht 95.820 und ist seit 2019 um 550 % gestiegen. Einer der Gründe für die Verbreitung von Deepfake-Videos ist die einfache Zugänglichkeit zu Deepfake-Anwendungen. So ist zum Beispiel der Quellcode von Swapface, einer beliebten Deepfake-Anwendung, online verfügbar. Der Quellcode ist nicht nur verfügbar, sondern auch beliebt. Für nicht technische Benutzer gibt es einige Computeranwendungen und -dienste. Die Nutzung dieser Dienste nimmt zu, so ist z.B. die Google-Suche nach "kostenloser Software zum Klonen von Stimmen" laut Google Trends zwischen 2023 und 2024 um 120 % gestiegen.
In den Mainstream-sozialen Medien besteht die soziale Funktion von Deepfake-Videos darin, sich über Behörden und Machthaber lustig zu machen. Das ergab eine Studie über 1413 manipulierte Videos auf YouTube und TikTok, was für die Meinungsfreiheit von entscheidender Bedeutung ist. Deepfake-Videos stellen jedoch auch ein Risiko für die Gesellschaft dar, da sie Desinformation und gefälschte Nachrichten verbreiten, sowie Erpressung, Mobbing, Belästigung und Betrug ermöglichen [8]. Diese Risiken sind für Frauen deutlich größer. Insbesondere bei pornografischen Deepfake-Videos, die 96 % aller Deepfake-Videos im Internet ausmachen. Eine andere Studie ergab, dass in 100 % der pornografischen Deepfake-Videos weibliche Prominente zu sehen waren, hauptsächlich aus den USA und Korea. Auch die nicht pornografischen Deepfake-Videos beinhalten hauptsächlich Frauen. Eine Studie untersuchte die Demografie von Deepfake-Videos der fünf wichtigsten Deepfake-Pornografie-Websites und der 14 wichtigsten Deepfake-YouTube-Kanäle, die nicht pornografisch sind. Die Studie ergab, dass 100 % der pornografischen Deepfake-Videos und 39 % der YouTube-Deepfake-Videos Frauen betreffen.
Da bei der Erstellung von Deepfake-Anwendungen KI-Algorithmen verwendet werden, sehen wir, dass sich die KI-Diskriminierung auch in Deepfake-Anwendungen widerspiegelt. Dies zeigt sich in der erhöhten technischen Qualität von Deepfake-Anwendungen bei Videos mit weiblichen Personen im Vergleich zu männlichen Personen. Ein Beispiel dafür ist die Deepfake-Anwendung DeepNude, mit der Benutzer bekleideten Frauen in Fotos "ausziehen" können, indem die Anwendung Fotos erstellt, welche nackte Körperteile eingesetzt haben. Diese Anwendung funktioniert bei Fotos von Männern nicht so gut wie bei Fotos von Frauen, da der KI-Algorithmus, auf dem die Anwendung basiert, hauptsächlich auf Bildern von Frauen trainiert wurde. Dies verdeutlicht, wie KI zur Festigung vorhandener geschlechtsspezifischer Machtdynamiken eingesetzt wird und wie Sexismus tief in unserer Gesellschaft verwurzelt ist und von KI-Algorithmen reproduziert wird.
Die meisten Social-Media-Plattformen haben Deepfake-Profile verboten, bei denen ein Profilbild und ein Text mithilfe von KI generiert werden. Soziale Medienplattformen überprüfen die Nutzerprofile, indem sie die gefälschten Profile mit einer Mischung aus automatischen Erkennungsmethoden und manuellen Erkennungsmethoden entfernen. Automatische Erkennungsmethoden beruhen auf dem Einsatz von KI-Systemen, um ein Deepfake-Profil zu erkennen, während die manuelle Erkennung auf Menschen angewiesen ist, um Deepfake-Profile zu erkennen. Die falsche Einstufung eines echten Profils als Fälschung kann dazu führen, dass das Profil eines Nutzers gesperrt oder entfernt wird. Dies kann zu wirtschaftlichem Schaden führen, wenn das Profil zur Werbung für seine professionellen Dienstleistungen genutzt wird. Es kann auch zu indirektem Schaden führen, der durch den Verlust von sozialem Kapital entsteht.
Ebenso gibt es Tools, die KI einsetzen, um Deepfake-Videos automatisch zu erkennen. Forscher von Meta haben die Deepfake Detection Challenge (deutsch Deepfake-Erkennungswettbewerb) ins Leben gerufen, um Forscher zu ermutigen, bessere Tools zur Erkennung von Deepfake-Videos und -Bildern zu entwickeln. Im Jahr 2020 kündigte Microsoft die Veröffentlichung von Microsoft Video Authenticator an. Der Microsoft Video Authenticator ist ein Tool, das Fotos oder Videos analysiert, um einen Konfidenzwert zu ermitteln, der einschätzt, ob die Medien künstlich manipuliert sind. Bei Videos kann es diesen Konfidenzwert in Echtzeit für jedes Bild während der Wiedergabe des Videos ermitteln.
Da es bei verschiedenen KI-Systemen, einschließlich der Computer Vision, der Forschungsdisziplin des computerbasierten Verstehens von Videos und Bildern, Probleme mit Bias und Diskriminierung gibt, können die gleichen Probleme auch bei den automatischen Systemen zur Erkennung von Deepfake-Videos oder -Bildern auftreten. In einer Studie wurde beispielsweise festgestellt, dass fast ein Drittel der Videos in dem Datensatz FaceForensic++, der üblicherweise für das Training von Deepfake-Erkennungsmodellen verwendet wird, weibliche hellhäutige Personen zeigt. Nachdem der Trainingsdatensatz ausgeglichen wurde, um die Verallgemeinerbarkeit der Modelle zu testen, stellte die Studie fest, dass die Leistung des Deepfake-Erkennungsmodells bei Videos mit Personen mit dunklerer Hautfarbe am schlechtesten war. Die Fehlerquote stieg um das 22-fache zwischen Videos mit weißen männlichen Personen (Fehlerquote 0,3%) und Videos mit afrikanischen männlichen Personen (6,7%). Die Studie ergab auch, dass Videos, in denen afrikanische oder asiatische Frauen zu sehen sind, häufiger fälschlicherweise als Fälschung eingestuft werden als Videos, in denen weiße Männer zu sehen sind. Die Ergebnisse zeigen auch, dass Videos, in denen Frauen zu sehen sind, eher fälschlicherweise als Fälschung eingestuft werden. In einer anderen Studie wurde festgestellt, dass demografische Attribute (z.B. Alter, Geschlecht und ethnische Zugehörigkeit) und nicht demografische Attribute (z.B. Haare, Haut usw.) die Leistung von Modellen zur Erkennung von Deepfake-Fälschungen beeinflussen. Das bedeutet, dass ein Deepfake-Erkennungsmodell, das gefälschte Videos mit jungen, blonden, weißen Frauen erkennen kann, möglicherweise nicht in der Lage ist, gefälschte Videos mit älteren, farbigen Frauen zu erkennen.
Was es besonders schwierig macht, gefälschte Videos zu erkennen, ist, dass KI-Algorithmen und Deepfake-Anwendungen immer besser darin werden, Videos zu erzeugen, die keine sichtbaren Verzerrungen aufweisen. Das bedeutet, dass die aktuellen Methoden zur Erkennung von gefälschten Videos, wie z. B. das Erkennen von Verzerrungen in gefälschten Videos, nicht mehr funktionieren. Das macht es nicht nur für automatisierte KI-Modelle zur Erkennung von Fälschungen schwierig, sondern auch für Menschen. In einer Studie, in der die Forscher die Fähigkeit von 210 menschlichen Probanden untersuchten, gefälschte Videos zu erkennen, fanden die Forscher beispielsweise heraus, dass Menschen Deepfakes nicht zuverlässig erkennen können und dass weder eine Sensibilisierung noch finanzielle Anreize ihre Erkennungsgenauigkeit verbessern. Die Forscher fanden auch heraus, dass die untersuchten Personen eher dazu neigen, Deepfake-Videos für authentische Videos zu halten als umgekehrt. Das bedeutet, dass die Aufgabe, ein gefälschtes Video zu erkennen, nicht nur für Deepfake-Erkennungsmodelle, sondern auch für Menschen eine große Herausforderung darstellt. In einer anderen Studie wurde festgestellt, dass die Genauigkeit der Menschen bei der Erkennung von Deepfake-Videos je nach demografischer Herkunft variiert und dass sich die Genauigkeit der Menschen verbessert, wenn sie Videos klassifizieren, die ihrer demografischen Herkunft entsprechen. Dies bringt das Element des Bias beim Menschen mit sich, das wahrscheinlich auf KI-Modelle zur Erkennung von Deepfakes übertragen wird, indem voreingenommene, vom Menschen gelieferte Zuordnungen im Trainingsdatensatz verwendet werden.
Diese Ergebnisse deuten darauf hin, dass es schwierig ist, die Verbreitung von Deepfakes in sozialen Medien durch bloße Erkennung zu verhindern. Und die Bemühungen der Social-Media-Plattformen, Deepfakes zu erkennen und zu entfernen, sind für marginalisierte Gruppen wie Frauen und Farbige nicht sehr erfolgreich - dieselbe Gruppe von Menschen, auf die Deepfake-Videos in erster Linie abzielen. Menschen sind auch nicht unbedingt besser oder weniger voreingenommen bei der Erkennung von Fälschungen.
Das bedeutet, dass wir, um die Herausforderung mit Deepfakes im Besonderen und das Problem mit Falsch- und Desinformationen im Allgemeinen zu lösen, über den Technosolutionismus hinaus denken müssen, um Lösungen zu finden, die über die Entwicklung von KI-Tools hinausgehen, um ein Problem zu lösen, das von KI-Tools geschaffen wurde. Andererseits können wir uns bei der Erkennung von Deepfakes oder Falsch- und Desinformationen nicht allein auf menschliche Content-Moderatoren verlassen, da diese nicht nur unzuverlässig sind, sondern die Content-Moderation auch eine entmutigende Aufgabe ist, die psychologische Probleme für die Moderatoren verursachen könnte.
Da Menschen bei der Erkennung von Deepfakes nicht zuverlässig sind und heutige KI-Modelle zur Erkennung von Deepfakes diskriminierend sind, muss man über andere Möglichkeiten nachdenken. Ein erster Schritt nach vorn könnte darin bestehen, vorhandene KI-Deepfake-Erkennungsmodelle zu verbessern, den sozialen und historischen Kontext in den gesammelten Datensatz aufzunehmen, der zum Trainieren von KI-Deepfake-Modellen verwendet wird. So sollte zum Beispiel berücksichtigt werden, dass farbige Frauen historisch gesehen stärker sexuell objektiviert werden als weiße Frauen. Das bedeutet, dass es von entscheidender Bedeutung wäre, ein KI-Deepfake-Erkennungsmodell zu trainieren, das einen inklusiven Datensatz mit einer ausgewogenen Repräsentation von Menschen aus verschiedenen Bevölkerungsgruppen enthält.
Für eine langfristige Lösung, brauchen wir strengere Richtlinien und Vorschriften, die die Verbreitung von Deepfake-Anwendungen wirksam stoppen oder zumindest deren Nutzung erschweren. Zum Beispiel wurde das GitHub-Repository von DeepFaceLab von GitHub deaktiviert. Das kam allerdings etwas spät, nachdem damit 95 % der Deepfake-Videos erstellt wurden, wie die Deepfake Forums and Creator Community behauptet, und dies muss noch von vielen anderen Unternehmen übernommen werden, wie z.B. Apple, was noch immer den DeepFaceLab - Face Swap Editor in ihrem App-Store anbietet. Ein weiterer wichtiger Schritt ist es, die Menschen für die von ihnen erstellten Videos zur Verantwortung zu ziehen und sichere Interneträume zu schaffen, anstatt einen Raum des Hasses und der Falsch- und Desinformation aufzubauen, um das Engagement zu fördern und Profit zu machen. Ebenso wichtig ist es, Richtlinien einzuführen, die unsere Online-Daten davor schützen, dass sie massenhaft abgegriffen und zum Trainieren von KI-Algorithmen verwendet werden.
Fazit
In diesem Artikel haben wir über Bias und Diskriminierung in KI-Algorithmen, KI-Anwendungen im Allgemeinen und Deepfake-Anwendungen im Besonderen gesprochen. Wir haben gezeigt, dass Menschen bei der Erkennung gefälschter Videos nicht zuverlässig sind als KI-Modelle. Und dass KI-Modelle sich bei der Erkennung von Fälschungen diskriminierend verhalten. Anschließend erörtern wir Möglichkeiten zur Entschärfung des Problems mit Deepfakes, z.B. die Verwendung repräsentativerer Datensätze für das Training der KI-Deepfake-Anwendungen und der KI-Erkennungsmodelle. Dies geht Hand in Hand mit der Umsetzung strengerer Vorschriften an verschiedenen Fronten wie dem Schutz unserer Daten, Urheberrechten und der Bekämpfung von Falsch- und Desinformation.