Ist es akzeptabel, wenn Studierende beim Verfassen von Hausarbeiten ChatGPT benutzen? Beuten die großen Internetfirmen ihre Kunden wirtschaftlich aus? Werden Roboter die Menschheit beherrschen oder gar ausrotten? Diese drei beispielhaften Fragen berühren sehr unterschiedliche Bereiche, aber sie haben gemeinsam, dass sie auf ethische Aspekte der Künstlichen Intelligenz verweisen. Solche Fragen werden zurzeit weitreichend diskutiert. Doch worin genau bestehen diese ethischen Probleme, warum sind sie relevant für KI, und was müssen wir beachten, wenn wir über die Ethik der KI sprechen? Und wie können oder sollen solche Fragen bearbeitet werden?
In diesem Beitrag argumentiere ich, dass die Antworten auf solche Fragen nicht generell gegeben werden können, sondern in bestimmten Kontexten oder „Ökosystemen“ angegangen werden müssen. Dies liegt in der Natur der Begriffe „KI“ und „Ethik“, die beide zu vielschichtig sind, um eindeutige Problembeschreibungen oder gar Lösungen zu ermöglichen. Um dieses Argument zu entwickeln, beginne ich mit einer Einführung in die Konzepte der KI sowie in damit verbundene ethische Fragen. Darauf aufbauend argumentiere ich, dass es nicht „die KI“ ist, die Probleme bereitet, oder dass KI eindeutig vorhersagbare Konsequenzen hat, sondern bei der Identifizierung von ethischen Fragen sowie möglichen Antworten immer die soziotechnischen, politischen und ökonomischen Ökosysteme mitgedacht werden müssen, in deren Kontext diese Fragen aufgeworfen werden
Konzepte der KI
Es ist nicht einfach, KI zu definieren. Als der Begriff 1956 von den Mathematikern und Informatikern John McCarthy, Marvin Minsky, Nathaniel Rochester und Claude Shannon eingeführt wurde, gingen sie von der Annahme aus, dass es möglich wäre, Maschinen zu entwickeln, die „jeden Aspekt des Lernens oder jede andere Eigenschaft von Intelligenz“ simulieren können.
Daran anschließend und basierend auf eigenen Arbeiten schlage ich vor, drei Verwendungen des Begriffs KI zu unterscheiden, die auf verschiedene ethische Fragestellungen verweisen:
maschinelles Lernen,
konvergierende soziotechnische Systeme und
Allgemeine KI oder Künstliche Allgemeine Intelligenz.
Es ist dabei wichtig klarzustellen, dass dies keine definitive oder allgemein anerkannte Definition von KI ist, sondern vielmehr ein Versuch, verschiedene Aspekte der Verwendung des Begriffs herauszuarbeiten, die jeweils unterschiedliche Arten von ethischen Fragestellungen aufwerfen und somit auch unterschiedliche Lösungsansätze erfordern.
Die drei Verständnisse von KI gehen jeweils mit einer Reihe von Eigenschaften einher, die sie für bestimmte ethische Fragestellungen relevant machen. Maschinelles Lernen etwa neigt dazu, undurchsichtig zu sein; das heißt, es ist schwer zu verstehen, was genau im System passiert.
KI als konvergierende soziotechnische Systeme haben in der Regel einen technischen Kern, der typischerweise eine Form des maschinellen Lernens umfasst. Sie sind jedoch in breitere wirtschaftliche, politische und verwandte Systeme eingebettet und daher klar soziotechnischer Natur. Anwendungsbeispiele sind etwa selbstfahrende Autos oder Systeme zur Erkennung von Finanzbetrug. Diese soziotechnischen Systeme scheinen autonom zu funktionieren, das heißt, sie führen zu Ergebnissen, die Menschen auf verschiedene Weise beeinflussen und für die menschliche Verantwortung nicht zugeschrieben werden kann. Sie bestimmen mit, welche Handlungsoptionen Menschen haben und wahrnehmen können.
Allgemeine KI, manchmal auch als „starke KI“ oder „Künstliche Allgemeine Intelligenz“ (artificial general intelligence, AGI) bezeichnet, steht für Systeme, die echte menschliche (oder andere höhere Säugetier-)Intelligenzniveaus aufweisen. Gegenwärtig gibt es kein Beispiel für funktionierende AGI, obwohl spekuliert wird, inwieweit aktuelle Arbeiten an großen Sprachmodellen die Kluft vom maschinellen Lernen zur AGI überbrücken könnten.
Ethik in der KI
Die ethischen Fragestellungen der KI werden leidenschaftlich und kontrovers diskutiert. Auf ihrer grundlegendsten Ebene beschäftigt sich Ethik mit Gut und Böse, mit Richtig und Falsch. Ethische Betrachtungen können dazu genutzt werden, sehr unterschiedliche Phänomene zu beschreiben – angefangen von Intuitionen darüber, was als richtig und falsch eingeschätzt wird, oder allgemeinen Aussagen bis hin zu strukturierten Reflexionen darüber, wie Ansichten von Richtig und Falsch gerechtfertigt werden können.
Es gibt zahlreiche ethische Theorien, die von der philosophischen Ethik behandelt werden. Dazu gehören Tugendethik, pflichtbasierte Ansätze und Theorien, die sich auf die Konsequenzen von Handlungen konzentrieren, um nur einige prominente Beispiele zu nennen. Es gibt eine Vielzahl weiterer Ansätze, die auf KI angewendet werden können, wie die feministische Ethik der Fürsorge oder verschiedene religiös begründete Ethiken. Ein Großteil der aktuellen Diskussion über die Ethik der KI dreht sich darum, aus den verschiedenen Ansätzen allgemeine Grundsätze zu entwickeln. Eine weit zitierte Übersicht listet folgende ethische Grundsätze auf: Transparenz, Gerechtigkeit und Fairness, Nichtschädigung, Verantwortung, Privatsphäre, Wohltätigkeit, Freiheit und Autonomie, Vertrauen, Nachhaltigkeit sowie Würde und Solidarität.
Ein weiteres Beispiel sind die Ethikrichtlinien für vertrauenswürdige KI, die von der sogenannten Hochrangigen Expertengruppe für Künstliche Intelligenz beschrieben wurden.
Es ist leicht zu erkennen, warum dieser grundsatzbasierte Ansatz attraktiv ist, auch wenn er gelegentlich kritisiert wird:
Chancen und Risiken
Einer Diskussion der ethischen Aspekte der KI sollte vorangestellt werden, dass KI sowohl ethische Vorteile mit sich bringen als auch Probleme aufwerfen kann. Unter den Vorteilen haben die wirtschaftlichen Auswirkungen der KI vermutlich den höchsten Stellenwert. Der Einsatz von KI führt mutmaßlich zu höherer Effizienz und Produktivität. Dies sind ethische Werte, da sie wachsenden Wohlstand versprechen, der vielen Menschen ein besseres Leben ermöglicht und somit förderlich für das menschliche Gedeihen sein kann.
KI bietet technische Möglichkeiten, die unmittelbare ethische Vorteile haben können. So ist KI in der Lage, riesige Datenmengen und -quellen zu analysieren, die Menschen allein nicht verarbeiten könnten. Sie kann Daten verknüpfen, Muster finden und Ergebnisse über verschiedene Bereiche und geografische Grenzen hinweg liefern. Darüber hinaus kann sie konsistenter sein als Menschen, sich rasch an veränderte Kontexte anpassen und Menschen von mühsamen oder sich wiederholenden Aufgaben befreien. All diese Dinge sind zweifellos von großem allgemeinen Nutzen. Die mögliche Reduzierung von Pendelzeiten im Nahverkehr oder die Erhöhung der Effektivität von E-Mail-Spam-Filtern sind nur zwei alltägliche Beispiele dafür, wie KI das Leben vieler Menschen erleichtern kann.
Neben diesen Beispielen für zufällige Vorteile, die sich gewissermaßen als „Nebenwirkungen“ der technischen Entwicklungen ergeben, gibt es zunehmend Versuche, KI gezielt für ethische Zwecke zu nutzen. Dies geschieht derzeit unter dem Schlagwort „AI for Good“.
Es gibt zahlreiche Veröffentlichungen, die sich mit den ethischen Herausforderungen durch KI auseinandersetzen. Sie stehen größtenteils in der Tradition einer langjährigen Diskussion über Ethik und KI in der Wissenschaft,
Maschinelles Lernen
Die erste Gruppe ethischer Fragestellungen ergibt sich aus den Merkmalen des maschinellen Lernens. Viele der maschinellen Lernverfahren, die zum aktuellen Erfolg der KI geführt haben, basieren auf künstlichen neuronalen Netzwerken. Diese sind gekennzeichnet von Undurchsichtigkeit, Unvorhersehbarkeit und einem Bedarf an großen Datensätzen für das Training der Technologien.
Ein primäres und häufig zitiertes ethisches Problem, das sich daraus ergibt, ist das der Privatsphäre und des Datenschutzes. Privatsphäre und Datenschutz sind zwar nicht identisch,
Einige maschinelle Lernsysteme sind nicht transparent. Bei proprietären Systemen, also solchen, die nur auf Geräten des jeweiligen Herstellers funktionieren, kann die kommerzielle Vertraulichkeit von Algorithmen und Modellen die Transparenz weiter einschränken. „Transparenz“ ist selbst ein umstrittener Begriff, aber mangelnde Transparenz wirft Fragen nach der Verantwortlichkeit auf. Mangelnde Transparenz erschwert auch die Erkennung und Behandlung von Fragen der Voreingenommenheit und Diskriminierung. Voreingenommenheit ist eine viel zitierte ethische Frage im Zusammenhang mit KI. Eine zentrale Herausforderung besteht darin, dass maschinelle Lernsysteme, absichtlich oder unbeabsichtigt, bereits bestehende Vorurteile reproduzieren können.
Konvergierende soziotechnische Systeme
Die zweite Gruppe ethischer Fragestellungen besteht aus solchen, die sich auf das beziehen, was ich als konvergierende soziotechnische Systeme bezeichne. Merkmale dieser Systeme sind Autonomie und soziale Auswirkungen einschließlich der Möglichkeit, dass menschliches Verhalten manipuliert wird.
Die sich daraus ergebenden ethischen Probleme sind mit KI verbunden, aber nicht auf KI beschränkt: Sie werfen die breitere gesellschaftliche und politische Frage auf, wie große soziotechnische Systeme strukturiert und genutzt werden sollten. Sie können daher nicht isoliert von ihrer gesellschaftlichen Rolle betrachtet werden, und viele der ethischen Fragestellungen werden direkt durch die Art und Weise verursacht, wie die Gesellschaft mit diesen Technologien arbeitet. So hängen viele Fragen, die sich aus dem Leben in einer digitalen Welt ergeben, mit der Wirtschaft zusammen. Die prominenteste unter ihnen betrifft die möglichen Auswirkungen auf den Arbeitsmarkt. Es wird befürchtet, dass KI sich negativ auf die Beschäftigung auswirken könnte, obwohl der erwartete Effekt umstritten bleibt.
Eine zentrale Herausforderung ist zudem die Konzentration wirtschaftlicher (und implizit politischer) Macht. Die Abhängigkeit der aktuellen KI-Systeme von großen Rechenressourcen und massiven Datenmengen bedeutet, dass Organisationen, die solche Ressourcen besitzen oder Zugang dazu haben, besonders gut positioniert sind, um von KI zu profitieren. Die internationale Konzentration solcher wirtschaftlichen Macht bei den großen Technologieunternehmen ist nicht nur auf KI gestützt, aber KI-bezogene Technologien haben das Potenzial, das Problem zu verschärfen.
Ein anderes wohlbekanntes ethisches Problem der Informations- und Kommunikationstechnologien kann sich durch KI verschärfen, nämlich das der digitalen Ausgrenzung. Durch die Bereitstellung oder den Entzug von Informationen gestalten die Technologien, die uns umgeben, den Raum möglicher Handlungen. Informations- und Kommunikationstechnik im Allgemeinen und KI im Besonderen können die Handlungsoptionen eines Menschen erscheinen oder verschwinden lassen, ohne dass dieser Mensch sich dessen bewusst ist. KI kann aber auch enorme Möglichkeiten eröffnen und Räume für Handlungen schaffen, die zuvor undenkbar waren, beispielsweise indem sie sehbehinderten Menschen das autonome Fahren von Fahrzeugen ermöglicht oder maßgeschneiderte medizinische Lösungen jenseits des derzeit Möglichen schafft.
Der Verbesserung von Diagnosen und Behandlungen durch KI im Gesundheitswesen stehen jedoch auch Risiken und Nachteile gegenüber. Ein Beispiel sind Pflegetechnologien: Robotersysteme wurden lange als Möglichkeit zur Bewältigung der Herausforderungen des Pflegesektors vorgeschlagen, aber es gibt Bedenken, dass der menschliche Kontakt durch Technologie ersetzt werden könnte, was oft als grundlegendes ethisches Problem angesehen wird.
Ein prominent diskutiertes Problem ist zudem die Verwendung von KI zur Schaffung autonomer Waffen. Während nachvollziehbar ist, dass das Ersetzen von menschlichen Soldaten durch Roboter, um das Leben der Soldaten zu retten, ein ethischer Vorteil sein könnte, gibt es zahlreiche Gegenargumente: angefangen bei praktischen Aspekten wie der Zuverlässigkeit solcher Systeme über politische Erwägungen wie die Frage, ob autonome Waffen die Schwelle zum Beginn von Kriegen senken würden, bis hin zu grundlegenden Gesichtspunkten wie Frage, ob es jemals angemessen sein kann, menschliche Leben auf der Grundlage von maschinellen Eingaben zu beurteilen.
Künstliche Allgemeine Intelligenz
Künstliche Allgemeine Intelligenz gibt es momentan zwar (noch) nicht, dennoch ist sie Gegenstand erheblicher ethischer Diskussionen. Ich bezeichne die damit verbundenen Fragestellungen als langfristig, da sie, wenn überhaupt, vermutlich nicht kurzfristig zu lösen sind. In der Diskussion über ethische Fragen der KI berücksichtige ich sie aus zwei Gründen dennoch. Erstens regen Fragen über AGI zum Nachdenken an, nicht nur in Fachkreisen, sondern auch in den Medien und in der Gesellschaft insgesamt, weil sie viele grundlegende Aspekte der Ethik und der Menschlichkeit berühren. Zweitens werfen einige dieser Fragen ein Licht auf praktische Probleme der aktuellen KI, weil sie zu einer klareren Reflexion über Schlüsselkonzepte wie Autonomie und Verantwortung sowie über die Rolle der Technologie in einer guten Gesellschaft zwingen.
Die techno-optimistische Version von AGI besagt, dass es einen Zeitpunkt geben wird, an dem die KI ausreichend fortgeschritten ist, um sich selbst zu verbessern, und infolge einer positiven Rückkopplungsschleife der KI auf sich selbst eine Intelligenzexplosion – die Singularität – eintreten wird.
Der Ökosystem-Ansatz
Schon dieser kurze und keineswegs erschöpfende Überblick zeigt, dass es eine Menge ethischer Aspekte gibt, die im Zusammenhang mit KI zu bedenken sind. Viele von ihnen sind umstritten und erzwingen trade-offs beziehungsweise schwierige Abwägungen von Vor- und Nachteilen, weil das eine nicht ohne das andere zu haben ist. So ermöglichen neuronale Netzwerke die automatische Erkennung von Mustern in Daten – da diese aber meist nicht transparent sind, werden auch Benachteiligung und Diskriminierung begünstigt. KI hat enormes ökonomisches Potenzial, aber die Wohlstandsvermehrung führt nicht automatisch zu gerechter Verteilung. Weiterhin sind die ethischen Grundlagen und Begriffe interpretationsbedürftig und oft nicht einfach anwendbar. Die Konsequenzen von Interventionen in KI sind typischerweise nicht leicht vorherzusehen. Und die Anzahl der Stakeholder im KI-Umfeld ist groß. Bei ihnen handelt es sich nicht nur Designer und Produzenten von KI, sondern auch um deren Nutzer, Verbraucher, staatliche Institutionen und zivilgesellschaftliche Organisationen aller Art.
Es ist daher nicht verwunderlich, dass es zahlreiche Vorschläge gibt, die darauf abzielen, die ethischen Fragen der KI anzugehen. Sie umfassen staatliche und gesamtgesellschaftliche Interventionen, einschließlich Regulierung und Gesetzgebung. Der in Vorbereitung befindliche „AI Act“ der Europäischen Union ist ein prominentes Beispiel dafür. Weitere staatliche und internationale Ansätze setzen auf die spezifische Anwendung von Menschenrechten auf KI, die Schaffung neuer Institutionen sowie die Verabredung internationaler Koordination. Auch Firmen und andere private Organisationen können zur Bearbeitung ethischer Fragen im Zusammenhang mit KI beitragen – in ihren Strategien und Leitbildern oder auch in alltäglichen Prozessen, etwa zum Risikomanagement oder Datenschutz. Ebenso haben Einzelpersonen als Bürger oder Mitarbeiter vielschichtige Rollen bei der Lösung ethischer Problem der KI: Sie können unter anderem bei der Entwicklung von Standards oder deren Zertifizierung mitwirken, sich für die Umsetzung von bestehenden Richtlinien engagieren oder als Entwickler an Methodologien mitarbeiten oder sie einsetzen.
Aufgrund der Mannigfaltigkeit und Komplexität der verschiedenen KI-Arten und der ethischen Fragen, die sie aufwerfen, ist nicht davon auszugehen, dass es eine klare Antwort gibt, wie diese Fragen zu behandeln oder zu lösen sind. Anstatt davon auszugehen, dass KI klar vorhersagbare Konsequenzen hat, die ethisch beurteilt und dann angegangen werden können, sollten wir KI anders verstehen: KI ist eine Gruppe von soziotechnischen Systemen, die in ökonomischen, sozialen und politischen Systemen integriert sind. Um diese Sichtweise widerzuspiegeln, wird häufig die Metapher des Ökosystems genutzt. Die Frage nach der Ethik der KI ist dann nicht mehr, was genau das ethische Problem ist und wie es zu lösen ist, sondern wie wir die verschiedenen KI-Ökosysteme formen und orchestrieren, um moralisch akzeptable und sozial wünschenswerte Zustände zu erreichen.
Dieser Vorschlag mag auf den ersten Blick frustrierend erscheinen. Er erlaubt nämlich keine (einfachen) Antworten auf die Fragen, die ich zu Beginn dieses Artikels angeführt habe. So lässt sich in dieser Sichtweise nicht eindeutig beantworten, ob es ethisch vertretbar für Studierende ist, ChatGPT zu benutzen, ob die Marktmacht der Internetfirmen ethisch problematisch ist oder wie wir mit Fragen der AGI umgehen sollten. Allerdings sollte es uns nicht überraschen, dass es auf diese Fragen keine einfachen Antworten gibt, sondern sie kontextspezifisch beantwortet werden müssen. KI als Teil unterschiedlicher Ökosysteme zu sehen, erlaubt es, die spezifische Konstellation von Technologie, Anwendung und sozialem Kontext in den Vordergrund zu rücken. Dies kann dann zu einer detaillierteren Analyse der spezifischen ethischen Fragen führen, aufgrund derer darauf abgestimmte Lösungen gefunden werden können. Ein solcher kontextspezifischer Ansatz der Ethik von KI-Ökosystemen scheint mir daher zielführender zu sein als der Versuch, allgemeingültige Lösungen zu finden, die im Detail und in der Anwendung oft nicht passen.