Maschinenethik ist ein neues Forschungsgebiet an der Schnittstelle von Informatik und Philosophie, das die Entwicklung moralischer Maschinen zum Ziel hat. Es geht darum, auf der Grundlage von Computertechnologie Maschinen zu gestalten, die selbst moralische Entscheidungen treffen und umsetzen können. Beflügelt wird dieses Vorhaben von den jüngsten Entwicklungen der Künstlichen Intelligenz. Sollen im Rahmen der Maschinenethik Verfahren der Künstlichen Intelligenz eingesetzt werden, so spricht man analog zu "Artificial Intelligence" (AI) von "Artificial Morality" (AM).
Während AI zum Ziel hat, die kognitiven Fähigkeiten von Menschen zu modellieren oder zu simulieren, geht es bei der AM darum, künstliche Systeme mit der Fähigkeit zu moralischem Entscheiden und Handeln auszustatten. Dieses Vorhaben wird von einigen euphorisch begrüßt, während andere dadurch einen menschlichen Kernbereich bedroht sehen. Im Folgenden werden zunächst einige Anwendungsbereiche moralischer Maschinen vorgestellt. Sodann wird thematisiert, inwiefern man überhaupt davon sprechen kann, dass Maschinen moralisch handeln können. Zum Abschluss werden ausgewählte Argumente diskutiert, die dafür oder dagegen sprechen, Maschinen mit der Fähigkeit zum moralischen Handeln auszustatten.
Anwendungsgebiete moralischer Maschinen
Je komplexer und autonomer künstliche Systeme werden, desto eher müssen sie in der Lage sein, ihr Verhalten in einem gewissen Rahmen selbst zu regulieren. Das bringt es mit sich, dass sie auch in Situationen geraten, die moralische Entscheidungen verlangen. Die scheinbar einfachste Alternative zu Systemen, die diese Kontrolle selbst ausüben können, besteht darin, die permanente Überwachung und "Online"-Kontrolle durch einen menschlichen Benutzer zu fordern, der dann die moralisch relevanten Entscheidungen trifft. In vielen Bereichen wird dies allerdings kaum möglich sein, sollen Maschinen ihren Zweck optimal erfüllen – sei es aufgrund von Personalmangel, weil schnelle Entscheidungen von Nöten sind, weil die Einsatzsituationen zu gefährlich sind oder weil menschliches Eingreifen selbst einen Risikofaktor darstellt. Welcher Art die moralischen Entscheidungen sind, die ein System treffen muss, hängt vom Anwendungskontext ab.
Ein Anwendungsbereich für moralische Maschinen ist die Altenpflege. Aufgrund des demografischen Wandels wird der Anteil pflegebedürftiger Menschen in den nächsten Jahrzehnten stark zunehmen.
In all diesen Situationen muss ein künstliches System zwischen bestimmten moralischen Werten abwägen: im ersten Fall zwischen der Selbstbestimmung des Nutzers und bestimmten gesundheitlichen Risiken, die entstehen, wenn er seine Medikamente nicht wie vorgeschrieben einnimmt. Im zweiten Fall zwischen der Selbstbestimmung des Nutzers, der Sorge der Angehörigen, die vielleicht gerne sofort informiert würden, und erneut der Gesundheit. Im dritten Fall geht es wiederum um die Selbstbestimmung des Nutzers, Gesundheit, die Sorge der Angehörigen sowie um die Privatheit seiner Daten.
Ein zweites viel diskutiertes Beispiel für die Notwendigkeit moralischer Maschinen ist das autonome Fahren. Auch vollautomatisierte Fahrzeuge stehen vor moralischen Entscheidungen. So gilt es beispielsweise, diese so zu programmieren, dass in unvermeidlichen Gefahrensituationen der Schutz menschlichen Lebens Vorrang vor Sach- und Tierschäden besitzt.
Nicht zu vergessen sind schließlich die militärischen Anwendungen. Der Traum besteht darin, dass keine Soldaten mehr auf dem Schlachtfeld ihr Leben aufs Spiel setzen müssen, sondern an ihrer Stelle autonome Maschinen in den Kampf geschickt werden. Diese sollen mit dem Kriegsvölkerrecht und kontextspezifischen Einsatzregeln ausgestattet werden, die ihren Handlungsspielraum begrenzen und sicherstellen, dass sie sich rechtlich und moralisch einwandfrei verhalten.
Man könnte allerdings argumentieren, dass es nicht das Pflegesystem, das autonome Auto oder der Kampfroboter ist, die in diesen Fällen eine moralische Entscheidung treffen, sondern die Programmierer dieser Geräte. Doch je größer die Fortschritte der Künstlichen Intelligenz werden, desto weniger können die Entwickler planen und vorhersagen, welche Entscheidungen ein System in einer spezifischen Situation treffen wird. So spielt schon ein Schachprogramm weit besser als seine Programmierer, die nicht jeden einzelnen Zug des Systems vorhersagen können. Das gilt umso mehr für ein so komplexes System wie AlphaGo Zero, das zunächst nur die Grundregeln des Spiels Go kennt und dann anhand des Durchspielens einer Vielzahl von Partien gegen sich selbst zu den optimalen Entscheidungsstrategien findet. In kürzester Zeit gelang es diesem System, seinen Vorgänger AlphaGo zu schlagen, der als erstes künstliches System einige der weltbesten menschlichen Go-Spieler besiegte.
Doch selbst wenn man zugesteht, dass es in vielen Anwendungsbereichen sinnvoll wäre, wenn Maschinen moralisch handeln könnten, ist damit noch nicht geklärt, ob sie dazu auch in der Lage sind. Die erste Frage ist, ob autonome Systeme überhaupt handeln können. Die zweite ist, ob die Handlungen künstlicher Akteure als moralisch gelten können.
Können künstliche Systeme moralisch handeln?
Die Problematik der grundsätzlichen Handlungsfähigkeit lässt sich innerhalb der philosophischen Handlungstheorie entlang zweier Achsen beschreiben: der Fähigkeit, als selbstursprüngliche Quelle des eigenen Tuns zu fungieren, sowie der Fähigkeit, sich an Gründen zu orientieren.
Der Begriff der Selbstursprünglichkeit wurde von der philosophischen Tradition teilweise im Sinn der Akteurskausalität verstanden, das heißt, dass eine Handlung von einem Akteur ohne vorhergehende Ursache initiiert wird.
Über eine solche primitive Form der Selbstursprünglichkeit können auch Maschinen verfügen, insbesondere solche, die von Computern gesteuert werden. Zwar gibt ein Programm vor, wie sich eine Maschine zu verhalten hat, aber im Einzelfall agiert sie, ohne dass ein Mensch eigens eingreift. Werden Verfahren der KI, beispielsweise Maschinelles Lernen, eingesetzt, so ist es sogar die Aufgabe der Maschine, das moralisch angemessene Verhalten selbst aus den Daten zu erschließen.
Die zweite Achse, die Fähigkeit, sich an Gründen zu orientieren, hängt eng mit der Möglichkeit zusammen, Informationen zu verarbeiten. Dem klassischen Humeschen Modell der Handlungsfähigkeit zufolge besteht der Grund einer Handlung in der Kopplung einer Überzeugung mit einer Pro-Einstellung, beispielsweise einem Wunsch: Ich gehe in die Bibliothek, weil ich ein bestimmtes Buch ausleihen will und der Überzeugung bin, dass es in der Bibliothek vorhanden ist.
Einige Autoren sind der Auffassung, dass ein Handeln aus Gründen lediglich erfordert, dass das Verhalten eines Systems auf diese Art und Weise interpretiert werden kann.
Ein künstliches System kann als funktional äquivalent zu einem menschlichen Akteur verstanden werden, wenn es über Zustände verfügt, denen eine analoge Funktion zukommt, wie Meinungen, Wünschen und Intentionen beim Menschen. Insbesondere Systeme die auf dem sogenannten BDI-Software-Modell (Belief–Desire–Intention) beruhen, operieren mit symbolischen Repräsentationen, die als funktional äquivalent mit Meinungen, Wünschen und Intentionen gelten können.
Moralische Handlungsfähigkeit wiederum liegt in einfacher Form vor, wenn die Gründe, nach denen ein System handelt, moralischer Natur sind. Dies ist auf einer rudimentären Ebene schon dann gegeben, wenn ein System über Repräsentationen moralischer Werte verfügt, die die zuvor angegebenen basalen Bedingungen für das Handeln aus Gründen erfüllen (das heißt, es gibt funktionale Äquivalente zu moralischen Überzeugungen, moralischen Pro-Einstellungen und Intentionen). Wenn ein System beispielsweise den Wert der Patientenautonomie als Pro-Einstellung besitzt und zu der Überzeugung kommt, dass dieser Wert in einer bestimmten Situation verletzt wird, dann wird es versuchen, so auf die Situation einzuwirken, dass dieser Wert wieder realisiert wird.
Vollumfängliche moralische Handlungsfähigkeit, wie sie Menschen typischerweise besitzen, kommt künstlichen Systemen allerdings nicht zu. Zum einen ist der Einsatzbereich von Maschinen mit Moral normalerweise auf einen bestimmten Anwendungskontext beschränkt, die menschliche Moralfähigkeit umfasst jedoch potenziell jeden beliebigen Bereich des Lebens.
Zudem verfügen künstliche Systeme bislang nicht wirklich über Bewusstsein und Willensfreiheit. Bewusstsein im Sinn des subjektiven Erlebens wäre beispielsweise erforderlich, um moralische Emotionen wie Mitgefühl oder auch Schuldgefühle empfinden zu können.
Außerdem können künstliche Systeme anders als Menschen ihre moralischen Entscheidungen und die ihnen zugrundeliegenden Werte nicht reflektieren, diese begründen oder gar selbstständig verändern. Aus diesem Grund können sie auch keine moralische Verantwortung übernehmen. Maschinen stellen demnach einen Sonderfall dar, in dem moralisches Handeln ohne moralische Verantwortung gegeben ist. Nicht zuletzt stellt sich die Frage, ob wir Maschinen gegenüber, die über Bewusstsein, Willensfreiheit oder die Fähigkeit zur moralischen Reflexion verfügen, nicht auch moralische Verpflichtungen haben. Das brächte Komplikationen für ihren praktischen Einsatz mit sich. Damit ist nicht gesagt, dass es unmöglich ist, Systeme zu konstruieren, die auch diese Eigenschaften besitzen. Sie sind jedoch nicht notwendig und auch nicht wünschenswert für Systeme mit moralischer Handlungsfähigkeit in einem grundlegenden und für die Anwendungspraxis geeigneten Sinn.
Sollen künstliche Systeme moralisch handeln?
Ein Argument, das zugunsten moralischer Maschinen vorgebracht werden kann, ist ihre schiere Unvermeidbarkeit. Die Entwicklung zunehmend intelligenter und autonomer Technologien führt demnach zwangsläufig dazu, dass diese mit moralisch problematischen Situationen konfrontiert sind. Deshalb ist es erforderlich, Maschinen zu entwickeln, die über ein gewisses Maß an eigenständiger moralischer Entscheidungsfähigkeit verfügen. Wenn das stimmt, ergibt sich die Notwendigkeit der Maschinenethik aus dem technologischen Fortschritt.
Zudem könnten moralische Maschinen möglicherweise schlicht bessere Maschinen sein. Technologien sollen das menschliche Leben erleichtern. Moralische Maschinen dienen diesem Ziel besser, so könnte man argumentieren, weil sie menschlichen Bedürfnissen und Werten besser entsprechen. Während neue Technologien häufig ins Fadenkreuz der Kritik geraten, weil sie moralische Probleme aufwerfen, ist die Moral in diesem Fall im Design der Maschine verankert.
Als Vorteil künstlicher moralischer Akteure wird weiterhin angeführt, dass sie moralisch besser handeln als Menschen, weil sie keinen irrationalen Impulsen oder emotionalem Stress unterliegen. Sie sind nicht verführbar und werden auch nicht durch Eigeninteresse vom Pfad der Moral abgebracht. Nicht zuletzt können sie in Sekundenbruchteilen Entscheidungen treffen, in denen ein Mensch gar nicht mehr zu bewusstem Entscheiden in der Lage ist. Das spricht für manche Autoren dafür, ihnen moralische Entscheidungen in besonders prekären Situationen zu überlassen, beispielsweise im Krieg.
Neben ihrem praktischen Nutzen verspricht die Entwicklung der Maschinenethik auch eine Verbesserung der Moral selbst. Die menschliche Moral ist fragmentiert und teilweise widersprüchlich. Die Entwicklung künstlicher Systeme mit moralischen Fähigkeiten macht es erforderlich, die menschliche Moral (zumindest in den Anwendungsbereichen) zu vereinheitlichen und konsistent zu machen, weil künstliche Systeme nur auf dieser Grundlage operieren können. Insofern Einheitlichkeit und Widerspruchsfreiheit generell theoretische Tugenden darstellen, wäre das auch ein Fortschritt der Ethik als Theorie der Moral.
Zudem besteht die Hoffnung, dass der Versuch, künstliche Systeme mit moralischen Fähigkeiten zu konstruieren, auch Rückschlüsse darüber zulässt, wie moralische Fähigkeiten bei Menschen funktionieren. Im besten Fall gibt es grundlegende funktionale Strukturen moralischer Fähigkeiten, die sowohl in natürlichen als auch in künstlichen Systemen realisiert werden können. Scheitern gewisse Erklärungsansätze moralischer Fähigkeiten an der Implementation, so ist auch das zumindest im negativen Sinn aufschlussreich im Hinblick darauf, wie menschliche Moralfähigkeiten nicht funktionieren. Maschinenethik besitzt also einen Wert als Instrument wissenschaftlicher Erkenntnis.
Diesen Pluspunkten steht jedoch eine Reihe von Einwänden gegenüber. So stellt sich die Frage, ob die Vereinheitlichung und Auflösung von Widersprüchen in unserer Alltagsmoral stets zu begrüßen ist. Möglicherweise werden dadurch Problemlagen eliminiert, ohne dass dies der Komplexität und existenziellen Bedeutung moralischer Situationen im Alltag gerecht wird. So ist beispielsweise nicht klar, wie sich ein autonomes Fahrzeug entscheiden sollte, wenn es ausschließlich die beiden Handlungsalternativen hat, das Leben seiner Insassen aufs Spiel zu setzen oder dasjenige von auf der Straße spielenden Kindern.
Ein Mensch hätte die Freiheit, dies situativ zu entscheiden. Doch das Verhalten eines autonomen Systems ist im Vorhinein festgelegt. Eine solche Normierung führt zu einer bedeutenden Einschränkung der Entscheidungsfreiheit des Einzelnen, der in einer derartig existenziellen Situation nicht mehr selbst entscheiden könnte, ob er sein Leben für die Kinder aufs Spiel setzt oder nicht.
Ein anderer Einwand befürchtet die Entstehung von Verantwortungslücken.
Dieses Problem der "vielen Hände" tritt auch im Fall anderer Technologien auf.
Wie diese Argumente gegen moralische Maschinen zu bewerten sind, hängt auch vom Anwendungsbereich ab. So entsteht das Problem der Verantwortungslücke möglicherweise verstärkt bei sehr komplexen und vernetzten Anwendungsbereichen wie dem autonomen Fahren und weniger ausgeprägt im Pflegebereich. Auch das Problem der Entmündigung könnte im Pflegebereicht dadurch entschärft werden, dass sich ein häusliches Pflegesystem an den Moralvorstellungen des Nutzers orientieren kann und in der Lage ist, sich flexibel an diese anzupassen.
Die letzten beiden Optionen bestehen im Hinblick auf das autonome Fahren und militärische Anwendungen hingegen nicht. In diesen Bereichen muss es allgemeinverbindliche Regelungen geben. Schließlich kann sich niemand dem Einfluss dieser Technologien entziehen, wenn er in irgendeiner Form am Verkehr teilnimmt oder zufällig als Zivilist in einem Kriegsgebiet lebt. Im Gegenzug müssen auch anwendungsspezifische Vorteile in die Abwägung mit eingehen. So wird zugunsten des autonomen Fahrens beispielsweise der Gewinn an Sicherheit angeführt. Autonome Waffensysteme hingegen sollen der humaneren Kriegsführung dienen, insofern sie eine bessere Einhaltung des Kriegsvölkerrechts gewährleisten und sich auf diese Art und Weise beispielsweise positiv auf den Schutz von Zivilisten auswirken. Pflegesysteme hingegen können die Lebensqualität alter Menschen steigern, die möglichst lange zu Hause leben möchten. Offen bleibt, auf welcher ethischen Grundlage künstliche Systeme entscheiden sollten. Auch das hängt vom Anwendungsbereich ab und sollte Gegenstand eines gesellschaftlichen Diskurses sein, insbesondere in denjenigen Anwendungsbereichen, die allgemeinverbindliche Regelungen erfordern.