Künstliche Intelligenz ist komplex: Sie ist nützlich, und sie ist risikoreich, sie ist menschengemacht, aber für Menschen nicht immer nachvollziehbar. Vor allem ist KI eine Frage von Macht und ihre Regulierung daher eine genuin staatsrechtliche Angelegenheit.
Das Feld der Regulierung von Künstlicher Intelligenz ist divers. Involviert sind verschiedene Institutionen, Regulierungsebenen und Regulierungsgegenstände. Bisher hat kein Land einen umfassenden Rechtsrahmen für KI erlassen, und es existiert kein völkerrechtlicher Vertrag, der einheitliche internationale Vorgaben schafft. KI-Regulierung ist aufgrund der unterschiedlichen Ansätze verschiedener Staaten, Staatenverbünde, nicht-staatlicher Organisationen und anderer Institutionen schon aufgrund der divergierenden Kompetenzen eher ein Flickenteppich als ein Puzzle, das sich zusammenfügt. Dennoch lassen sich übergreifende Gemeinsamkeiten, Unterschiede und Entwicklungslinien identifizieren.
Warum KI-Regulierung?
KI ist auf den ersten Blick kein außergewöhnlicher Regulierungsgegenstand: Insbesondere rechtliche Regulierung hat sich stets mit neuen technischen Entwicklungen, Unsicherheiten oder globalen Auswirkungen befasst, wie das Umwelt- und Technikrecht zeigen. Dennoch wächst das Bewusstsein dafür, dass die bisherigen Regeln auf verschiedenen Ebenen nicht ausreichen, um KI effektiv zu regulieren. Die Gründe dafür liegen im soziotechnischen Charakter und in der technischen Funktionsweise von KI sowie in der Systematik rechtlicher Regulierung. Übergeordnetes Regulierungsziel ist es, die entstehenden Risiken zu umschiffen, um die sich eröffnenden Chancen nutzen zu können.
Recht reguliert nach Kriterien von Subjektivität und Individualität, menschlichen Entscheidungen, Haftung und Verantwortung, Schuld, Erklärbarkeit und Rechtssicherheit. KI hingegen operiert auf der Grundlage großer, zum Teil unübersichtlicher Datenmengen in opaken Entscheidungsstrukturen mit einer Vielzahl an Zwischenschritten und beteiligten Personen in Entwicklung, Vertrieb und Nutzung. KI ist zugleich keine rein technische Entwicklung, sondern eine soziotechnische – KI ist menschengemacht. Generative Modelle erzeugen Sprache, Bilder oder Videos auf der Grundlage von Texteingaben. Dazu gehören Sprachmodelle wie ChatGPT, welche die Wahrscheinlichkeit der Reihenfolge von Wörtern errechnen und dadurch Unterhaltungen simulieren können. Vorhersagemodelle der Wirtschaft, die Scoring-Werte berechnen, predictive maintenance (vorausschauende Wartung) in der Industrie oder die Analyse von Umweltdaten in der Forschung: All diese Modelle benötigen große Datenmengen, um trainiert und validiert zu werden. Diese Datengrundlagen wiederum werden von Menschen erzeugt, etwa durch die Nutzung digitaler Medientechnik.
Für Regulierungsfragen sind KI-Systeme umso relevanter, je wahrscheinlicher ihre Verwendung Einfluss auf geschützte Rechtsgüter wie Grundrechte, demokratische Prozesse oder die öffentliche Sicherheit hat. Diese betroffenen Rechtsgüter sind nicht neu und nicht allein durch KI-Anwendungen gefährdet. Dennoch besteht ein nahezu globaler Konsens, dass neue Formen der Regulierung für KI notwendig sind. Allerdings brauchen wir weniger eine ständig neue Formulierung neuer digitaler Rechte als vielmehr effektive Instrumente, die bestehende Rechte und Schutzinteressen mit vorhandenen und neuen Mitteln schützen.
Die von zahlreichen prominenten Stimmen insbesondere aus der Techbranche im Frühjahr 2023 angestoßene Forderung einer Entwicklungspause für KI zur Schaffung eines Regelwerks, ist indes eine marketingmotivierte Nebelkerze.
KI-Regulierung ist Machtregulierung
Als Regulierungsziele für KI werden häufig Fairness, Transparenz, Erklärbarkeit, Vertrauenswürdigkeit, Sicherheit, Grundrechtsschutz, Innovationsförderung genannt. Hinter diesen Bestrebungen, neue Regulierungsvorgaben für KI zu schaffen, steht aber mehr als diese zweifelsohne wünschenswerten Einzelziele, die sich primär aus der undurchsichtigen Funktionsweise von KI-Systemen begründen – denn Menschen können den Weg zum Output eines Systems nicht nachvollziehen, erklären oder verstehen. Tatsächlich manifestiert sich in der fortschreitenden Verbreitung von KI-Technologie eine neue Form von Macht. KI-Regulierung ist deshalb die Regulierung von Macht und damit eine rechtsstaatliche Frage, denn staatlich gesetztes Recht legitimiert und begrenzt Macht gleichermaßen.
Die Machtdimension von KI speist sich aus unterschiedlichen Faktoren. Die zentralen Akteure der KI-Technologien, die den primären Anstoß für die rechtspolitische Diskussion über KI-Regulierung geben, sind zunächst global agierende Technologiefirmen. Die Entwicklung und Anwendung von KI ist zwar nicht auf die freie Wirtschaft beschränkt – Open-Source-Initiativen, NGOs, staatliche Institutionen und die Wissenschaft bespielen ebenfalls das KI-Feld –, dennoch sind die Technologien, die im öffentlichen Diskurs debattiert werden, primär solche, die von privatwirtschaftlichen Akteuren entwickelt und eingesetzt werden.
Die Corona-Warn-App beispielsweise konnte nur über die App-Stores von Google und Apple erfolgreich ausgerollt werden.
Die Allgegenwärtigkeit dieser digitalen Prozesse und die zunehmende Verbreitung von KI haben zudem erkenntnistheoretische Auswirkungen: Wie werden Entscheidungen getroffen? Wie wird Wissen erzeugt? Sprachmodelle liefern eloquent klingende Antworten, produzieren aber auch viel Unsinn. Durch eine flächendeckende Nutzung solcher Systeme, beispielsweise im Falle einer Integration in alle Office-Anwendungen von Microsoft, wird es immer schwieriger, Phänomenen wie dem sogenannten automation bias (übermäßiges Vertrauen in maschinelle Entscheidungsvorschläge) zu entkommen.
Um den vielfältigen Machtfaktoren von KI zu begegnen und zugleich Innovationen zu ermöglichen, braucht es rechtliche Regelungen – denn wo Macht im Spiel ist, zeigt sich das Potenzial gesellschaftlicher Verbesserungen genauso wie die Gefahr des Missbrauchs. Nach dem Vorsorgeprinzip können bestimmte, besonders riskante Produkte und Verfahren, wenn sie wichtige Rechtsgüter bedrohen, einer gesetzlichen Regulierung unterworfen werden, um im Vorfeld Schäden zu verhindern. In Bezug auf KI stellt sich allerdings die Herausforderung, dass einige Auswirkungen schlecht, noch nicht oder gar nicht abschätzbar sind.
Regulierungsformen
Regulierung von KI hat verschiedene Formen: Klassische rechtliche Regulierung kann präventive Verbote, repressive Sanktionen oder Handlungsgebote formulieren, bestehende Vorschriften anwenden oder neue schaffen; ethische Vorschläge beziehen sich auf moralische Vorgaben, die aber zur Grundlage rechtlicher Regulierung werden können; technische Vorgaben wie Standardisierungsnormen erzeugen oft faktische Bindungen.
KI ist eine Querschnittstechnologie, die in unterschiedlichsten Bereichen eingesetzt wird und dadurch auch verschiedene Rechtsgebiete berührt: Produktsicherheitsrecht, Verbraucherschutzrecht, Urheberrecht, Datenschutzrecht, Grundrechtsschutz, privates Haftungsrecht, strafrechtliche Zurechnungsfragen, Arbeitsrecht und weitere. KI wird keinesfalls in einem rechtsfreien Raum verwendet, der nun dringend neue Detailregelungen erfordert. Es muss deshalb, einerseits, sorgfältig geprüft werden, ob neue Rechtsvorgaben wirklich notwendig sind. Andererseits sollten Regulierungslücken geschlossen werden, wenn Regulierungsziele nicht mehr erreicht werden oder neu entstehen. Wichtig ist es zudem, die soziotechnische Funktionsweise und den stets menschengemachten Anwendungskontext von KI zu reflektieren und keine rein technikzentrierte Regulierung zu schaffen.
In den vergangenen Jahren sind weltweit eine Vielzahl von Initiativen entstanden, um Werte und Grundsätze für die ethische Entwicklung und den Einsatz von KI zu definieren.
Nicht nur im Bereich von KI beeinflussen sich rechtsverbindliche Vorgaben und ethische Vorschläge gegenseitig als unterschiedliche Dimensionen von Normativität: Ethische Normen orientieren sich an rechtlicher Systematik, Recht übersetzt Ethik in vollziehbare Vorgaben. Die von der Europäischen Kommission eingesetzte unabhängige Hochrangige Expertengruppe für KI (HEG-KI) zum Beispiel hat 2019 in ihren Ethik-Leitlinien für eine vertrauenswürdige KI drei zentrale Kriterien formuliert, die alle KI-Systeme erfüllen sollten: Rechtmäßigkeit, Einhaltung ethischer Grundsätze und Robustheit. Auf nationaler Ebene hat die Datenethikkommission der Bundesregierung in ihrem Gutachten zu algorithmischen Systemen im selben Jahr einen risikoadaptierten Regulierungsansatz vorgeschlagen – also einen, bei der die Regulierungstiefe am Schädigungspotenzial ausgerichtet ist – der nun auf europäischer Ebene in ähnlicher Form umgesetzt wird.
Europäische KI-Regulierung
In der EU werden seit Längerem verschiedene Regulierungsansätze diskutiert. Bereits 2018 wurde eine europäische KI-Strategie veröffentlicht sowie die HEG-KI eingesetzt. 2020 veröffentlichte die EU-Kommission das KI-Weißbuch, gefolgt von einer öffentlichen Konsultation.
KI-Systeme sollen in drei Kategorien klassifiziert werden: unannehmbares Risiko, hohes Risiko und geringes Risiko. Systeme mit minimalem Risiko wie Spamfilter für E-Mails sind kein Gegenstand der Regulierung. Systeme mit unannehmbarem Risiko wie manipulative KI, Social Scoring und biometrische Fernidentifizierung sind verboten, wobei es für Letztere weitgehendende Ausnahmen für Justiz- und Strafverfolgungsbehörden gibt.
Der Schwerpunkt der Verordnung liegt auf Hochrisikosystemen. Zu den Anwendungsfeldern in diesem Bereich zählen zurzeit die Fallgruppen Biometrik, Bildung, Beschäftigung, Inanspruchnahme grundlegender privater und öffentlicher Dienste und Leistungen, Strafverfolgung, Migration, Asyl und Grenzkontrolle sowie Rechtspflege und demokratische Prozesse. Der KI-VO-E legt den Fokus auf die Hersteller:innen von KI, Nutzer:innen scheinen eine untergeordnete Rolle zu spielen. Es fehlen Betroffenenrechte oder Möglichkeiten zur öffentlichen Partizipation.
Der Entwurf sieht zahlreiche allgemeine und spezielle Transparenzanforderungen vor. KI-Systeme mit hohem Risiko sind generell so zu konzipieren und zu entwickeln, dass ihre Funktionsweise hinreichend transparent ist, um Anbieter:innen und Nutzer:innen ein angemessenes Verständnis der Funktionsweise des Systems zu ermöglichen. Systeme, die mit natürlichen Personen interagieren, und Emotionserkennungssysteme müssen darüber informieren, dass KI eingesetzt wird. Deep Fakes, also manipulierte Bild- oder Toninhalte, müssen gekennzeichnet werden. Was ein „angemessenes Verständnis“ und was generell unter einer „ethischen und vertrauenswürdigen“ KI zu verstehen ist, wird im Normtext jedoch nicht beantwortet. Dies hängt auch mit der Rolle der Normierungsinstitutionen zusammen. Zentral ist hier die Zertifizierung von KI: Die Anforderungen an Hochrisikosysteme scheinen detailliert, ihre konkreten Maßstäbe werden aber maßgeblich auf harmonisierte Normen übertragen (etwa DIN-Normen), die von privaten Standardisierungsorganisationen erlassen werden.
Zur Umsetzung des KI-VO-E sollen die Mitgliedstaaten neue Aufsichtsbehörden schaffen oder die Verordnungsaufsicht an bestehende Institutionen delegieren. Die genauen Anforderungen, insbesondere die einer vollständigen Unabhängigkeit wie aus dem Datenschutzrecht bekannt, sind Gegenstand laufender Verhandlungen. Als neues regulatorisches Instrument auf Unionsebene sieht der KI-VO-E Reallabore vor (regulatory sandboxes), in denen innovative KI-Anwendungen in Zusammenarbeit mit der Aufsichtsbehörde für einen bestimmten Zeitraum getestet werden sollen.
Neben der geplanten KI-Verordnung gibt es bereits Daten- und plattformbezogene EU-Gesetzgebung, die auch KI betrifft. Zentrales Regelwerk für die Verarbeitung personenbezogener Daten ist seit 2018 die europäische Datenschutzgrundverordnung (DSGVO), die zweifelsohne auch für KI gilt, wenn personenbezogene Daten verarbeitet werden. Hier bestehen allerdings ungelöste Probleme zwischen der regulatorischen Ausrichtung der DSGVO – etwa mit Blick auf Datenminimierung und Betroffenenrechte – und der Differenzierung zwischen verschiedenen Datenkategorien sowie der praktischen Durchsetzung.
Auch die wichtigen Verordnungen des DSA und des Digital Markets Act (DMA) werden sich mittelbar auf den Einsatz von KI auswirken, insbesondere bei sozialen Plattformen. Der DSA fordert von sehr großen Anbieter:innen, systemische Risiken zu überwachen, schafft Transparenzvorgaben für Empfehlungssysteme und verbietet personenbezogene Werbung gegenüber Minderjährigen.
Weitere KI-Regulierungen
Verschiedene Staaten setzen unterschiedliche Schwerpunkte bei der Regulierung von KI; herausgegriffen werden hier die USA und China, die oft als gegensätzliche Systeme zum europäischen Ansatz genannt werden.
China hat erhebliche Investitionen in KI getätigt und fördert aktiv die Entwicklung von KI-Technologien und deren Einsatz in allen Wirtschaftssektoren. Chinas Regulierungsansatz ist zum einen stark innovationsorientiert, mit Initiativen zur Förderung spezifischer Entwicklungen auf allen Ebenen der Regierung und der Industrie, und zum anderen gesellschaftlich orientiert, wobei die „soziale Stabilität“ (im Verständnis der Zentralregierung) Vorrang vor den Rechten der einzelnen Person hat.
Weitere Länder wie Brasilien und Kanada haben eigene Gesetzesentwürfe zur Regulierung von KI auf den Weg gebracht.
Schwierigkeiten
KI als Regulierungsobjekt direkt zu behandeln, ist komplex, da die Auffassungen davon, was KI eigentlich ist, nach wie vor auseinandergehen.
Kritik gibt es auch an der Verwendung des Begriffs „Intelligenz“, denn nicht einmal menschliche Intelligenz ist klar definiert. Wie kann es dann künstliche sein? Aus rechtlich-regulatorischer Sicht ist die Definition des Regelungsgegenstands essenziell, da sie den Anwendungsbereich der Regulierung festlegt. Zudem müssen Anforderungen an Rechtssicherheit, Präzision und Praktikabilität erfüllt sein. Aufgrund des breiten Spektrums an gesellschaftlichen Segmenten und an Wissenschaften, die entweder direkt oder indirekt von KI betroffen sind, führt jedoch jede Sichtweise zu einer eigenen Definition dessen, was KI ist und was sie für den jeweiligen Bereich bedeutet. Die Tatsache, dass weder die Computerwissenschaft noch die Informatik im KI-VO-E direkt erwähnt werden, zeigt, dass es keine allgemein anerkannte technische Definition dessen gibt, was KI ist oder sein könnte.
Im weiteren Gesetzgebungsverfahren des KI-VO-E wurde die Definition mehrfach verändert; der Vorschlag des Europäischen Parlaments von Juni 2023 lautet: „[Ein KI-System ist] ein maschinengestütztes System, das so konzipiert ist, dass es mit unterschiedlichem Grad an Autonomie operieren kann und das für explizite oder implizite Ziele Ergebnisse wie Vorhersagen, Empfehlungen oder Entscheidungen hervorbringen kann, die das physische oder virtuelle Umfeld beeinflussen.“
Ausblick
Die populären generativen KI-Anwendungen wie ChatGPT, Modelle wie DALL-E oder Stable Diffusion, die aus Texteingaben Bilder generieren, stellen die Regulierung von KI vor weitere Herausforderungen. Denn diese Modelle können zu unterschiedlichsten Zwecken eingesetzt werden, deren Auswirkungen im Vorfeld nicht überschaubar sind. Die erforderliche Risikoabschätzung verkompliziert sich dadurch. Der Fokus sollte dabei nicht nur auf dem Regulierten, sondern auch auf den Regulierenden liegen: Der Aufbau von Expertise und regulatorischem Wissen ist dringend erforderlich. Ein Zusammenführen verschiedener Disziplinen und ein Dialog mit der Praxis sind unumgänglich. Risikobasierte Regulierung kann nicht alle Probleme lösen, nicht alle Auswirkungen lassen sich vorhersehen oder abschätzen. Die Machtstellung der beteiligten Akteure, auch staatlicher Institutionen, sowie die soziotechnischen Zusammenhänge und Auswirkungen sollten nicht aus dem Blick geraten. Rein technikbezogene schematische Lösungen werden der Komplexität von KI, Menschen, Gesellschaften und normativen Systemen nicht gerecht. Mehr Bildung, Digitalkompetenz und eine lebhafte öffentliche Debatte sind gefordert.