Künstliche Intelligenz (KI) wird zunehmend zu einem zentralen Element der digitalen Transformation in allen Bereichen der Gesellschaft. Die wachsende Abhängigkeit von KI-Technologien hat jedoch auch Folgen für die Externer Link: Menschenrechte. Bei vielen Schlüsselaspekten digitaler Technologien kann sie einen massiven Verstärker für bestehende Probleme darstellen oder diese überhaupt erst schaffen. So kann KI umstrittene Überwachungspraktiken ermöglichen und verstärken, die negativen Umweltauswirkungen von Technologien erhöhen, globale Ungerechtigkeit verschärfen und die Meinungsfreiheit bei der Moderation von Inhalten im digitalen Raum untergraben. Trotz dieser Herausforderungen bietet KI in so vielen Bereichen das Potenzial für Effizienzsteigerungen, dass sie wahrscheinlich auch in Zukunft in zahlreichen digitalen Technologien eingesetzt werden wird. Im Folgenden werden einige dieser zentrale Spannungen zwischen künstlicher Intelligenz und Menschenrechten erörtert.
KI-bedingte Grundrechtsrisiken
Biometrische Überwachung
Die fortschreitende Entwicklung
Da biometrische Merkmale einzigartig sind, stellt insbesondere die automatische Gesichtserkennung in der Videoüberwachung eine ernsthafte Bedrohung für das
Auch strukturelle Diskriminierung wird durch das gezielte Herausfiltern von Einzelpersonen oder Gruppen auf Grundlage biometrischer Merkmale, etwa bei Grenzkontrollen oder Demonstrationen, noch verstärkt. Die
Biometrische Kategorisierung
Biometrische Analysen werden weiterhin verwendet, um Personen anhand bestimmter äußerer Merkmale in Gruppen einzuordnen, etwa nach Geschlecht, Alter, Emotionen und sogar sexueller Orientierung. Diese als biometrische Kategorisierung bezeichnete Praxis wird auch aus kommerziellen Gründen eingesetzt, z. B. für gezielt geschaltete Werbung. Der Versuch, von körperlichen Merkmalen wie der Gesichtsstruktur auf Persönlichkeits- oder Charaktermerkmale zu schließen, offenbart oftmals rassistische Annahmen. Viele dieser biometrischen Kategorisierungen beruhen zudem auf wissenschaftlich fragwürdigen Grundlagen und die Schlussfolgerungen, zu denen diese KI-Systeme gelangen, sind oft ungültig.
Nachhaltigkeit von KI
Auswirkungen auf Umwelt und Klima
Mit der zunehmenden Verbreitung von KI in allen Lebensbereichen rückt die Frage nach ihrer Nachhaltigkeit in den Mittelpunkt: Wie umweltfreundlich ist die KI, die wir einsetzen? Angesichts der Auswirkungen der Externer Link: Klimakrise auf den Menschenrechtsschutz
Die Funktionalität von KI-Systemen hängt maßgeblich von den verfügbaren Rechenkapazitäten, d.h. den verfügbaren Server- und Speicherressourcen, ab. Die Suche nach verwertbaren Mustern in Datensätzen während des Trainings und die Überprüfung von Vorhersagen während der Anwendungsphase erfordern erhebliche Rechenleistung. Große generative Modelle wie GPT-3 und LaMDA werden in der Regel auf leistungsstarken Server-Clustern mit mehreren Grafikprozessoren trainiert, die erhebliche Mengen an Strom verbrauchen. Während des Betriebs wird elektrische Energie in Wärme umgewandelt. Um eine Überhitzung zu vermeiden, müssen die Server und Kraftwerke gekühlt werden. Infolgedessen verdampfen beim Training großer Sprachmodelle Millionen von Litern Frischwasser. Um etwa den Facebook News Feed zu erstellen, werden in den Facebook-Rechenzentren täglich Billionen von Anfragen bearbeitet.
Globale Ungerechtigkeit
Auch mit Blick auf die globale Gerechtigkeit ergeben sich in der KI-Branche zahlreiche Probleme. Die Marktmacht konzentriert sich auf einige wenige Großkonzerne, was für kleinere Firmen erhebliche Markteintrittsbarrieren schafft. Ausbeuterische Arbeitsbedingungen sind entlang der KI-Wertschöpfungskette weit verbreitet und die Umweltauswirkungen in Ländern des globalen Südens besonders gravierend: KI-Rechenzentren in dürregefährdeten Gebieten verbrauchen Süßwasser. Der von KI-Servern hinterlassene Elektronikschrott landet oft in asiatischen oder afrikanischen Ländern, wo die Bevölkerung unter den Folgen zu leiden hat. Der Abbau von seltenen Erden für die Hardware geht häufig mit gefährlichen Arbeitsbedingungen und Umweltschäden einher. Selbst die Kommentierung und Bereinigung von Datensätzen wird von Big Tech-Konzernen oft in Niedriglohnländer ausgelagert.
Diese Ungleichheiten machen deutlich, dass sich die KI-Branche auf globaler Ebene mit Fragen der Umwelt und der sozialen Gerechtigkeit befassen muss. Es ist wichtig, faire und nachhaltige Praktiken anzustreben, um sicherzustellen, dass die Entwicklung und der Einsatz von KI einen positiven Beitrag für lokale und globale Gemeinschaften leisten.
KI-Vorschriften in der EU
Risikobewertung nach dem Digital Services Act
Auch die Kommunikation in digitalen Räumen ist vom Grundrechtsschutz erfasst
Der Externer Link: Digital Services Act (DSA) ist ein neues Regelwerk der Europäischen Union. Die EU-Verordnung zielt darauf ab, einen sicheren digitalen Raum zu schaffen und bestimmt, wie Online-Dienste KI-Systeme gestalten und prüfen müssen, um den Schutz der Grundrechte für alle Nutzer*innen zu gewährleisten. Gemäß dem Gesetz müssen große Online-Plattformen und Suchmaschinen Risikobewertungen für ihre Produkte und Dienstleistungen durchführen. Das Gesetz hebt dabei einzelne Menschenrechte wie die Menschenwürde, die Privatsphäre, den Datenschutz, die Meinungs- und Medienfreiheit, die Nichtdiskriminierung, die Kinderrechte oder den Verbraucherschutz hervor. Deutlich wird dies am Beispiel der KI-gestützten
Diese Automatisierung der Aufgabe steht damit immer wieder im Widerspruch zum Menschenrecht der freien Meinungsäußerung. Die Abwägung zwischen dem Schutz der Menschenrechte und der Schaffung sicherer Online-Räume ist daher ein Balanceakt, der nun durch gesetzliche Unterfangen wie dem DSA zu einem höheren Grad vereinheitlicht wird. Das neue Gesetz verlangt zum Beispiel, dass Plattformen Transparenzberichte vorlegen und angeben, wie viel Inhaltsmoderation durch KI im Vergleich zu menschlicher Moderation durchgeführt wurde. Auch müssen Informationen darüber offengelegt werden, welcher Anteil der Moderation durch automatisierte Systeme gefiltert wurde, welchen Zweck KI im Moderationsprozess hatte und wie hoch die mögliche Fehlerquote dabei war.
KI-Gesetz: risikobasierter Ansatz in der Kritik
Während KI darüber hinaus bereits einer Reihe bestehender Regeln und Vorschriften unterliegt – darunter Menschenrechtsgrundsätze, Datenschutzgesetze, Urheberrecht, Antidiskriminierungsgesetze und vieles mehr – sind weitere Vorschriften speziell für KI sowohl auf nationaler Ebene (wie in Deutschland durch die Externer Link: "Deutsche Normungs-Roadmap für Künstliche Intelligenz") als auch auf internationaler Ebene entstanden. Von besonderer Bedeutung ist der sogenannte Externer Link: Artificial Intelligence Act (AIA) der Europäischen Union, der im deutschsprachigen Raum meist als KI-Verordnung bezeichnet wird. Die EU-Verordnung kategorisiert KI-Technologien und regulatorische Maßnahmen auf der Grundlage von Risikoeinstufungen. Dabei werden drei Risiko-Klassen unterschieden – inakzeptables Risiko, hohes Risiko und niedriges Risiko. Fällt ein KI-System wie z.B. „Social Scoring“ - also das Bewerten von Verhalten anhand von Punkten - in die erste Kategorie (inakzeptables Risiko), wird sie verboten. Anders behandelt werden KI-Systeme mit hohem Risiko. Dazu zählen etwa Systeme, die eingesetzt werden, um Arbeitnehmer*innen zu kontrollieren. Diese müssen besondere rechtliche Anforderungen erfüllen und z.B. sicherstellen, dass KI-Systeme von Menschen überwacht werden, gewisse Informationen offenlegen oder gar eine Grundrechtsfolgenabschätzung durchführen. KI-Systeme mit niedrigem Risiko, wie beispielsweise eine KI-gestützte Terminplanungs-App, müssen hingegen nur geringen Transparenz- und Informationspflichten nachkommen. Für sogenannte General-Purpose KI-Modelle (KI-Modelle, die für eine Vielzahl von Zwecken eingesetzt werden können, wie zum Beispiel GPT-4) mit systemischem Risiko gelten gesonderte Anforderungen, wie z.B. das Einrichten von Cyberschutzmaßnahmen. Die KI-Verordnung tritt allerdings erst ab 2026 in vollem Umfang in Kraft, bis dahin basieren die Regelungen vorrangig auf freiwilligen Absprachen mit den Unternehmen.
Schlussfolgerung
Digitale Technologien verändern Gesellschaften in rasantem Tempo und KI ist ein immer größerer Teil dieses Wandels. Wie erörtert, gibt es zwar ein gewisses Potenzial für Effizienzsteigerungen durch KI, doch die Risiken für die Menschenrechte sind beträchtlich. Der Weg, um diese Risiken zu vermeiden, wäre eine robustere Regulierung von KI und eine systematischere Berücksichtigung der Menschenrechte sowohl in der Phase der Technologieentwicklung als auch in der Implementierungsphase. Ist dies nicht der Fall, wird die KI auch weiterhin erhebliche Probleme für die Menschenrechte mit sich bringen. Tatsächlich konzentrieren sich erste Regulierungsrahmen wie das KI-Gesetz der EU in erster Linie auf die Risikominderung und nicht auf den Schutz der Grundrechte.
Dies bedeutet nicht, dass KI keine Chancen für die Menschenrechte bietet, sondern vielmehr, dass die Risiken aufgrund der Art und Weise, wie KI konzipiert und umgesetzt wird, derzeit wesentlich größer sind. Es besteht die dringende Notwendigkeit, KI näher an die Menschenrechtsstandards heranzuführen. Sollte dies nicht passieren, ist das Risiko groß, dass die Unterstützung der Öffentlichkeit für die digitale Transformation im Allgemeinen verloren geht. KI wird bereits weithin als Zerstörer von Arbeitsplätzen angesehen, und die anhaltenden und weit verbreiteten Menschenrechtsverletzungen werden wahrscheinlich die öffentliche Unterstützung für den Einsatz digitaler Technologien in der Gesellschaft weiter schwächen. Gesellschaften auf der ganzen Welt brauchen daher eine deutliche ausgereiftere KI, die einen Fokus auf Menschenrechte anstatt Effizienz um jeden Preis hat.