Man stelle sich vor, man sitzt in einem selbstfahrenden Auto. Einem, wie Google es gerade testet. Links fährt ein Porsche Cayenne, rechts ein Smart. Plötzlich rennt ein Kind unvermittelt auf die Straße. Die Abstandsmesser stellen fest, dass ein Bremsvorgang bei dieser Geschwindigkeit zu spät kommt und nur noch ein Ausweichmanöver möglich ist. Was soll der Fahrcomputer in dieser Situation tun? Nach links ausbrechen und den Porsche rammen? Oder nach rechts ausweichen und in den Smart hineinrasen? Physikalisch ist die Frage leicht beantwortet. Die Technik entscheidet sich für den Zusammenstoß mit dem schwereren Fahrzeug, das den Aufprall besser abfedern kann - in diesem Fall der Porsche auf der linken Seite. Allein, es geht hier nicht nur um Physik. Sondern um Ethik.
Software soll mehr Sicherheit bringen - aber wie?
Was kann der Fahrer eines Porsche Cayenne dafür, dass er ein robustes Auto fährt? Ist ein Geländewagen weniger schützenswert als ein Kleinwagen? Das klingt nach theoretischen Fragen. Doch in der Praxis sind derlei Erwägungen von großer Bedeutung. Während ein menschlicher Fahrer nur instinktiv in einer Notsituation reagieren kann, wird ein Roboterauto von einer Software gesteuert, die unablässig die Umwelt mit Sensoren erfasst und zahlreiche Berechnungen durchführt, bevor wir der Gefahr überhaupt gewahr werden. Jedes Jahr kommen laut der WHO 1,2 Millionen Menschen bei Autounfällen ums Leben - in den meisten Fällen wegen Unachtsamkeit oder Trunkenheit am Steuer. Roboterautos treten mit dem Versprechen an, das Fahren sicherer zu machen. Aber wie soll man sie programmieren?
Stanford-Professor Chris Gerdes, der im Auftrag der Daimler und Benz Stiftung gesellschaftsrelevante Fragestellungen rund um das automatisierte Fahren erforscht, sagt auf Anfrage: "Wir arbeiten an Rahmenbedingungen für die Programmierung ethischer Entscheidungen in automatisieren Autos. Im Moment haben wir noch nicht die richtige Lösung. Es ist einfacher als gedacht, ethische Regeln in autonomen Fahrzeugen zu programmieren. Viel schwerer ist jedoch die Frage, was angemessen ist."
Berechenbare Unberechenbarkeit
Eine Lösung bestünde darin, einen Zufallsgenerator ("deus ex machina") einzubauen, der in derlei Situationen eine Entscheidung trifft. Eine spontane, unkalkulierbare Reaktion ähnelt ja auch mehr dem menschlichen Verhalten in Gefahrensituationen. Gleichwohl: Selbstfahrende Autos werden ja gerade deshalb entwickelt, damit sie berechenbarer sind - sie sollen bessere Entscheidungen treffen. Man würde mit einem Zufallsgenerator die technische Errungenschaft um den Preis ethischer Korrektheit zurückdrehen. Ein Widerspruch in sich.
Eine andere Lösung wäre, dem Auto gewisse Informationen wie die Fahrzeuggröße vorzuenthalten, damit der Algorithmus erst gar nicht in die missliche Lage versetzt wird, zwischen beiden Varianten zu entscheiden. Idealtypisch würde ein solcher "Schleier der Unwissenheit" für mehr Gerechtigkeit sorgen. Das Problem ist nur, dass Automobilhersteller und Versicherer so viele Informationen wie möglich gewinnen wollen, um zum Beispiel während der Fahrt Werbung zu lancieren, oder um das Fahrverhalten der Versicherten nachvollziehen zu können. Ein "blindes Auge" der Technik ist also unwahrscheinlich. So ist davon auszugehen, dass Algorithmen über alle relevanten Informationen verfügen und im Extremfall brutale Entscheidungen treffen müssen.
Kein Ende in Sicht
Porsche oder Smart? Schulbus oder Rollstuhlfahrer? Die Frage der Haftung ist unheimlich kompliziert. Eine Person kann moralisch verantwortbar sein, aber nicht rechtlich - und umgekehrt. Eines steht fest: Automatisierung bedeutet kein Ende der Unsicherheit im Straßenverkehr.