Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

Effizienz um jeden Preis? | Menschenrechte | bpb.de

Menschenrechte Im Fokus Sexuelle Selbstbestimmung Menschenrechte ohne Papiere Militärische Intervention Digitalisierung Wirtschaft Gesundheit Todesstrafe Menschenrecht Wasser? Festung Europa Interview: Fluchtursachen Endstation Calais Homophobie in der Popmusik Interview: Wasserkrise Textilindustrie Interview: Kinderarbeit Grundlagen Erklärung der Menschenrechte Zehn Fragen Interview: Globale Gerechtigkeit Geschichte der Menschenrechtserklärung Debatte Die Idee Universelle Menschenrechte Interview: Gültig für alle? "Asiatische Werte" Menschenrechte und Islam Interkultureller Diskurs Regionen Russland Naher und Mittlerer Osten China Afrika Lateinamerika Europa Interview: Menschenrechtsschutz Europa Quiz: Menschenrechte Redaktion Das Menschenrecht auf Wohnen

Effizienz um jeden Preis? Menschenrechte und Künstliche Intelligenz

Ben Wagner Kilian Vieth-Ditlmann Andy Sanchez Marie-Therese Sekwenz

/ 8 Minuten zu lesen

Die rasante Verbreitung von Künstlicher Intelligenz wird von großen Hoffnungen begleitet - doch die Risiken für den Menschenrechtsschutz sind hoch. Wie wirkt sich KI auf die Meinungsfreiheit im Netz aus? Warum verschärft KI globale Ungerechtigkeiten? Und wie kann KI reguliert werden?

Ein KI-gestützter Radarsensor hängt neben einer Videokamera in der Bahnhofshalle im Hauptbahnhof Mönchengladbach. (© picture alliance/dpa | Marius Becker)

Künstliche Intelligenz (KI) wird zunehmend zu einem zentralen Element der digitalen Transformation in allen Bereichen der Gesellschaft. Die wachsende Abhängigkeit von KI-Technologien hat jedoch auch Folgen für die Externer Link: Menschenrechte. Bei vielen Schlüsselaspekten digitaler Technologien kann sie einen massiven Verstärker für bestehende Probleme darstellen oder diese überhaupt erst schaffen. So kann KI umstrittene Überwachungspraktiken ermöglichen und verstärken, die negativen Umweltauswirkungen von Technologien erhöhen, globale Ungerechtigkeit verschärfen und die Meinungsfreiheit bei der Moderation von Inhalten im digitalen Raum untergraben. Trotz dieser Herausforderungen bietet KI in so vielen Bereichen das Potenzial für Effizienzsteigerungen, dass sie wahrscheinlich auch in Zukunft in zahlreichen digitalen Technologien eingesetzt werden wird. Im Folgenden werden einige dieser zentrale Spannungen zwischen künstlicher Intelligenz und Menschenrechten erörtert.

KI-bedingte Grundrechtsrisiken

Biometrische Überwachung

Die fortschreitende Entwicklung Interner Link: biometrischer Überwachungssysteme wirft erhebliche Fragen hinsichtlich der Gewährleistung und des Schutzes von Menschenrechten auf. In verschiedenen öffentlichen Bereichen wie Bahnhöfen, Fußballstadien und anderen ausgewiesenen Gebieten setzen sowohl staatliche als auch private Stellen zunehmend KI-Systeme ein. Diese sind in der Lage, Personen anhand ihrer biometrischen Merkmale – d.h. individuelle physiologische Merkmale wie Fingerabdrücke, Gesicht, Iris oder Stimme – aus großen Menschenmengen herauszufiltern, zu identifizieren und zu kategorisieren. Die Erfassung und der Vergleich aller Passant*innen durch KI-Systeme ist schnell, kostengünstig sowie leicht zu verbreiten und führt zu einer massenhaften Überwachung biometrischer Daten.

Da biometrische Merkmale einzigartig sind, stellt insbesondere die automatische Gesichtserkennung in der Videoüberwachung eine ernsthafte Bedrohung für das Interner Link: Recht auf Privatsphäre dar. Die Datenverarbeitung erfolgt ohne Zustimmung und untergräbt die Annahme der Anonymität im öffentlichen Raum. Die möglichen Auswirkungen auf die Wahrnehmung der demokratischen Grundrechte und der individuellen Autonomie fallen schwer ins Gewicht: Die ständige Möglichkeit einer automatischen Identifizierung unterzogen zu werden, kann Menschen etwa davon abhalten, ihr Interner Link: Recht auf freie Meinungsäußerung wahrzunehmen und sich negativ auf die individuelle Selbstbestimmung auswirken. Personen, die befürchten, an öffentlichen Orten überwacht und jederzeit identifiziert zu werden, könnten Abstand von der Teilnahme an bestimmten Interner Link: Versammlungen nehmen oder beispielsweise zögern, eine Abtreibungsklinik, eine religiöse Institution oder einen Ort zu besuchen, der Personen mit einer bestimmten sexuellen Orientierung zugerechnet wird.

Auch strukturelle Diskriminierung wird durch das gezielte Herausfiltern von Einzelpersonen oder Gruppen auf Grundlage biometrischer Merkmale, etwa bei Grenzkontrollen oder Demonstrationen, noch verstärkt. Die Interner Link: Datengrundlage und die Algorithmen von KI-Systemen, auf denen etwa Gesichtserkennungstechnologien beruhen, spiegeln gesellschaftliche Strukturen und Machtverhältnisse und damit auch bestehende Diskriminierungsmuster wider. So kam es bereits zu unrechtmäßigen Verhaftungen, da biometrische Erkennungssysteme Personen zu Unrecht als verdächtig identifiziert haben.

Biometrische Kategorisierung

Biometrische Analysen werden weiterhin verwendet, um Personen anhand bestimmter äußerer Merkmale in Gruppen einzuordnen, etwa nach Geschlecht, Alter, Emotionen und sogar sexueller Orientierung. Diese als biometrische Kategorisierung bezeichnete Praxis wird auch aus kommerziellen Gründen eingesetzt, z. B. für gezielt geschaltete Werbung. Der Versuch, von körperlichen Merkmalen wie der Gesichtsstruktur auf Persönlichkeits- oder Charaktermerkmale zu schließen, offenbart oftmals rassistische Annahmen. Viele dieser biometrischen Kategorisierungen beruhen zudem auf wissenschaftlich fragwürdigen Grundlagen und die Schlussfolgerungen, zu denen diese KI-Systeme gelangen, sind oft ungültig. Die Praxis der biometrischen Kategorisierung untergräbt daher nicht nur den Interner Link: Schutz personenbezogener Daten, sondern stellt auch das Interner Link: Recht auf Gleichbehandlung in Frage. Daher ist es von größter Bedeutung, die ethischen und wissenschaftlichen Grundlagen solcher biometrischer Kategorisierungssysteme fortlaufend kritisch zu prüfen und wirksame Schutzmaßnahmen etwa in Form von Verboten zu ergreifen, um Diskriminierung und Missbrauch zu verhindern.

Nachhaltigkeit von KI

Auswirkungen auf Umwelt und Klima

Mit der zunehmenden Verbreitung von KI in allen Lebensbereichen rückt die Frage nach ihrer Nachhaltigkeit in den Mittelpunkt: Wie umweltfreundlich ist die KI, die wir einsetzen? Angesichts der Auswirkungen der Externer Link: Klimakrise auf den Menschenrechtsschutz dürfen die ökologischen Auswirkungen der KI nicht außer Acht gelassen werden. Die zugrundeliegende Infrastruktur von KI-Systemen muss nachhaltig sein. Leider ist dies gegenwärtig oft nicht der Fall.

Die Funktionalität von KI-Systemen hängt maßgeblich von den verfügbaren Rechenkapazitäten, d.h. den verfügbaren Server- und Speicherressourcen, ab. Die Suche nach verwertbaren Mustern in Datensätzen während des Trainings und die Überprüfung von Vorhersagen während der Anwendungsphase erfordern erhebliche Rechenleistung. Große generative Modelle wie GPT-3 und LaMDA werden in der Regel auf leistungsstarken Server-Clustern mit mehreren Grafikprozessoren trainiert, die erhebliche Mengen an Strom verbrauchen. Während des Betriebs wird elektrische Energie in Wärme umgewandelt. Um eine Überhitzung zu vermeiden, müssen die Server und Kraftwerke gekühlt werden. Infolgedessen verdampfen beim Training großer Sprachmodelle Millionen von Litern Frischwasser. Um etwa den Facebook News Feed zu erstellen, werden in den Facebook-Rechenzentren täglich Billionen von Anfragen bearbeitet.

Globale Ungerechtigkeit

Auch mit Blick auf die globale Gerechtigkeit ergeben sich in der KI-Branche zahlreiche Probleme. Die Marktmacht konzentriert sich auf einige wenige Großkonzerne, was für kleinere Firmen erhebliche Markteintrittsbarrieren schafft. Ausbeuterische Arbeitsbedingungen sind entlang der KI-Wertschöpfungskette weit verbreitet und die Umweltauswirkungen in Ländern des globalen Südens besonders gravierend: KI-Rechenzentren in dürregefährdeten Gebieten verbrauchen Süßwasser. Der von KI-Servern hinterlassene Elektronikschrott landet oft in asiatischen oder afrikanischen Ländern, wo die Bevölkerung unter den Folgen zu leiden hat. Der Abbau von seltenen Erden für die Hardware geht häufig mit gefährlichen Arbeitsbedingungen und Umweltschäden einher. Selbst die Kommentierung und Bereinigung von Datensätzen wird von Big Tech-Konzernen oft in Niedriglohnländer ausgelagert.

Diese Ungleichheiten machen deutlich, dass sich die KI-Branche auf globaler Ebene mit Fragen der Umwelt und der sozialen Gerechtigkeit befassen muss. Es ist wichtig, faire und nachhaltige Praktiken anzustreben, um sicherzustellen, dass die Entwicklung und der Einsatz von KI einen positiven Beitrag für lokale und globale Gemeinschaften leisten.

KI-Vorschriften in der EU

Risikobewertung nach dem Digital Services Act

Auch die Kommunikation in digitalen Räumen ist vom Grundrechtsschutz erfasst und hat mehrere Berührungspunkte mit KI, sei es bei der Moderation von Inhalten, dem Ranking von Beiträgen, Empfehlungen für Nutzer*innen oder gar als Werkzeug zur Generierung von Inhalten.

Der Externer Link: Digital Services Act (DSA) ist ein neues Regelwerk der Europäischen Union. Die EU-Verordnung zielt darauf ab, einen sicheren digitalen Raum zu schaffen und bestimmt, wie Online-Dienste KI-Systeme gestalten und prüfen müssen, um den Schutz der Grundrechte für alle Nutzer*innen zu gewährleisten. Gemäß dem Gesetz müssen große Online-Plattformen und Suchmaschinen Risikobewertungen für ihre Produkte und Dienstleistungen durchführen. Das Gesetz hebt dabei einzelne Menschenrechte wie die Menschenwürde, die Privatsphäre, den Datenschutz, die Meinungs- und Medienfreiheit, die Nichtdiskriminierung, die Kinderrechte oder den Verbraucherschutz hervor. Deutlich wird dies am Beispiel der KI-gestützten Interner Link: Inhaltsmoderation: Diese ist in der Regel die erste Kontrollstelle für Inhalte. Ziel ist es, KI als schnelles und kostengünstiges Tool zur Bewältigung der nichtabebbenden Flut von nutzergenerierten Inhalten einzusetzen, die jede Minute hochgeladen werden. Um illegale oder anderweitig unerwünschte Inhalte aus Social-Media-Plattformen herauszufiltern, müssen KI-Systeme in der Lage sein, Entscheidungen auf der Grundlage der Geschäftsbedingungen einer Plattform zu treffen und potenzielle Rechtsverstöße zu erkennen. Systeme machen jedoch Fehler, was entweder dazu führen kann, dass zu viele Beiträge gelöscht werden oder unmoderierte, potenziell schädliche Inhalte, die von der automatischen Erkennung übersehen wurden, online hochgeladen werden.

Diese Automatisierung der Aufgabe steht damit immer wieder im Widerspruch zum Menschenrecht der freien Meinungsäußerung. Die Abwägung zwischen dem Schutz der Menschenrechte und der Schaffung sicherer Online-Räume ist daher ein Balanceakt, der nun durch gesetzliche Unterfangen wie dem DSA zu einem höheren Grad vereinheitlicht wird. Das neue Gesetz verlangt zum Beispiel, dass Plattformen Transparenzberichte vorlegen und angeben, wie viel Inhaltsmoderation durch KI im Vergleich zu menschlicher Moderation durchgeführt wurde. Auch müssen Informationen darüber offengelegt werden, welcher Anteil der Moderation durch automatisierte Systeme gefiltert wurde, welchen Zweck KI im Moderationsprozess hatte und wie hoch die mögliche Fehlerquote dabei war.

KI-Gesetz: risikobasierter Ansatz in der Kritik

Während KI darüber hinaus bereits einer Reihe bestehender Regeln und Vorschriften unterliegt – darunter Menschenrechtsgrundsätze, Datenschutzgesetze, Urheberrecht, Antidiskriminierungsgesetze und vieles mehr – sind weitere Vorschriften speziell für KI sowohl auf nationaler Ebene (wie in Deutschland durch die Externer Link: "Deutsche Normungs-Roadmap für Künstliche Intelligenz") als auch auf internationaler Ebene entstanden. Von besonderer Bedeutung ist der sogenannte Externer Link: Artificial Intelligence Act (AIA) der Europäischen Union, der im deutschsprachigen Raum meist als KI-Verordnung bezeichnet wird. Die EU-Verordnung kategorisiert KI-Technologien und regulatorische Maßnahmen auf der Grundlage von Risikoeinstufungen. Dabei werden drei Risiko-Klassen unterschieden – inakzeptables Risiko, hohes Risiko und niedriges Risiko. Fällt ein KI-System wie z.B. „Social Scoring“ - also das Bewerten von Verhalten anhand von Punkten - in die erste Kategorie (inakzeptables Risiko), wird sie verboten. Anders behandelt werden KI-Systeme mit hohem Risiko. Dazu zählen etwa Systeme, die eingesetzt werden, um Arbeitnehmer*innen zu kontrollieren. Diese müssen besondere rechtliche Anforderungen erfüllen und z.B. sicherstellen, dass KI-Systeme von Menschen überwacht werden, gewisse Informationen offenlegen oder gar eine Grundrechtsfolgenabschätzung durchführen. KI-Systeme mit niedrigem Risiko, wie beispielsweise eine KI-gestützte Terminplanungs-App, müssen hingegen nur geringen Transparenz- und Informationspflichten nachkommen. Für sogenannte General-Purpose KI-Modelle (KI-Modelle, die für eine Vielzahl von Zwecken eingesetzt werden können, wie zum Beispiel GPT-4) mit systemischem Risiko gelten gesonderte Anforderungen, wie z.B. das Einrichten von Cyberschutzmaßnahmen. Die KI-Verordnung tritt allerdings erst ab 2026 in vollem Umfang in Kraft, bis dahin basieren die Regelungen vorrangig auf freiwilligen Absprachen mit den Unternehmen.

Schlussfolgerung

Digitale Technologien verändern Gesellschaften in rasantem Tempo und KI ist ein immer größerer Teil dieses Wandels. Wie erörtert, gibt es zwar ein gewisses Potenzial für Effizienzsteigerungen durch KI, doch die Risiken für die Menschenrechte sind beträchtlich. Der Weg, um diese Risiken zu vermeiden, wäre eine robustere Regulierung von KI und eine systematischere Berücksichtigung der Menschenrechte sowohl in der Phase der Technologieentwicklung als auch in der Implementierungsphase. Ist dies nicht der Fall, wird die KI auch weiterhin erhebliche Probleme für die Menschenrechte mit sich bringen. Tatsächlich konzentrieren sich erste Regulierungsrahmen wie das KI-Gesetz der EU in erster Linie auf die Risikominderung und nicht auf den Schutz der Grundrechte.

Dies bedeutet nicht, dass KI keine Chancen für die Menschenrechte bietet, sondern vielmehr, dass die Risiken aufgrund der Art und Weise, wie KI konzipiert und umgesetzt wird, derzeit wesentlich größer sind. Es besteht die dringende Notwendigkeit, KI näher an die Menschenrechtsstandards heranzuführen. Sollte dies nicht passieren, ist das Risiko groß, dass die Unterstützung der Öffentlichkeit für die digitale Transformation im Allgemeinen verloren geht. KI wird bereits weithin als Zerstörer von Arbeitsplätzen angesehen, und die anhaltenden und weit verbreiteten Menschenrechtsverletzungen werden wahrscheinlich die öffentliche Unterstützung für den Einsatz digitaler Technologien in der Gesellschaft weiter schwächen. Gesellschaften auf der ganzen Welt brauchen daher eine deutliche ausgereiftere KI, die einen Fokus auf Menschenrechte anstatt Effizienz um jeden Preis hat.

Weitere Inhalte

Ben Wagner ist Associate Professor für Menschenrechte und Technologie an der Technischen Universität Delft, sowie Professor für Medien, Technologie und Gesellschaft an der Inholland University of Applied Science.

Kilian Vieth-Ditlmann ist stellvertretender Leiter des Policy-Teams der Menschenrechtsorganisation AlgorithmWatch.

Andy Sanchez ist Senior Researcher für Media, Technology und Society, am AI Futures Lab der Technischen Universität Delft.

Marie-Therese Sekwenz ist PhD Candidate im AI Futures Lab der Technischen Universität Delft.