"Krieg ist ein zu ernstes Geschäft, als dass man ihn den Computern überlassen dürfte." Mit diesem von Georges Clemenceau inspirierten Zitat endete 2014 ein Beitrag zur automatisierten Kriegführung des Politikwissenschaftlers Niklas Schörnig.
In diesem Artikel werden die aktuellen Entwicklungen im Bereich der automatisierten Kriegführung besprochen. Welche Formen der Automatisierung und Autonomie von Militärtechnik und Waffensystemen werden schon heutzutage in der Kriegführung eingesetzt? Welche Erklärungen gibt es für den Trend zu immer größerer Automatisierung bis hin zur Autonomie? Es wird gezeigt, dass bereits diejenigen Systeme, die heute oder in naher Zukunft verwendet werden, Probleme aufwerfen. Die Gefahr besteht, dass ohne eine breite öffentliche Diskussion und ein Verbot bestimmter Systeme und Funktionen die Entwicklung hin zu einer Situation, in der Roboter selbst entscheiden, Menschen zu töten, kaum aufzuhalten ist.
Automatisierung und Autonomie
Der Übergang zwischen Automatisierung und Autonomie ist fließend. Ein Verständnis der Unterschiede ist jedoch wichtig, da automatisierte und autonome Systeme in der Militär- und Waffentechnik teils unterschiedliche Problemstellungen aufwerfen. Eine Möglichkeit ist, zwischen nichtautonomen beziehungsweise semiautonomen Systemen auf der einen und operationell autonomen Systemen auf der anderen Seite zu unterscheiden.
Die Systeme der ersten Kategorie zeichnen sich dadurch aus, dass sie von Menschen bedient werden – sei es durch direktes Eingreifen über eine Fernsteuerung (human in the loop) oder durch eine Überwachung während des Einsatzes (human on the loop). Die aktuell eingesetzten Systeme fallen größtenteils in diese erste Kategorie. Sie weisen unterschiedliche Level von Automatisierung auf, sind aber letztendlich auf menschliches Zutun angewiesen. So wird beispielsweise die von der Bundeswehr in Afghanistan eingesetzte Mikro-Aufklärungsdrohne Mikado mithilfe einer Handkonsole durch einen Piloten am Boden gesteuert. Sie verfügt nur zu einem sehr geringen Grad über automatisierte Funktionen, etwa für das Ausbalancieren im Flug. Heron 1, eine andere von der Bundeswehr verwendete Aufklärungsdrohne, ist deutlich automatisierter und kann im vorprogrammierten Modus eigenständig starten und landen sowie im Autopilot vorgegebene Strecken abfliegen. Doch auch Heron 1 wird letztendlich von Menschen gesteuert: Die typische Crew für dieses System besteht aus drei Soldatinnen und Soldaten, die sich um das Flugzeug, seine Sensorik und die Mission kümmern.
Im Gegensatz zu nicht- oder semiautonomen Systemen können autonome Systeme Tätigkeiten selbst ausführen, ohne auf die direkte Steuerung oder Kontrolle durch den Anwender angewiesen zu sein (human out of the loop). Beides übernimmt ein Computer. In der Rechts-, Moral- und politischen Philosophie bedeutet Autonomie, dass ein Akteur aus eigenen Gründen, also nicht fremdbestimmt, handelt.
Problematisch wird diese Abgrenzung zu moralischer Autonomie bei "lernfähigen" Systemen, deren künstliche Intelligenz über sogenannte learning algorithms verfügt, sodass sie sich neue, nicht programmierte Fähigkeiten aneignen können. Hier besteht die Möglichkeit, dass das System auf eine Art und Weise handelt, die seine Hersteller und Programmierer nicht mehr nachvollziehen können. Doch selbst ein solches System kann nur in dem ihm von der Programmierung zugewiesenen Bereich lernen.
Diese technischen und philosophischen Nuancen spielen in der öffentlichen Diskussion über die fortschreitende Automatisierung in der Kriegführung jedoch eine untergeordnete Rolle. Das Hauptaugenmerk richtet sich auf sogenannte lethal autonomous weapons systems (LAWS) – Waffensysteme, die hochgradig automatisiert bis autonom sind und ein Ziel selbstständig suchen, finden und ohne menschliches Zutun auch ausschalten können. Als problematisch wird also nicht Autonomie im Allgemeinen angesehen, sondern letale autonome Systeme im Speziellen – obwohl es diese bisher nur als Science-Fiction gibt. Intuitiv richten sich viele Menschen, Experten wie Laien, gegen die Möglichkeit, dass Maschinen Menschen töten dürfen, und gegen eine "entmenschlichte" Kriegführung.
Warum Autonomisierung?
Der Trend zu immer weiterer Automatisierung militärischer Systeme kann auf eine Reihe von Gründen zurückgeführt werden.
So kann mithilfe automatisierter und autonomer Systeme schneller reagiert werden. Das wird in Zukunft noch wichtiger werden: Die Kriegführung ist immer stärker technologisiert, immer mehr Informationen müssen ausgewertet werden, Abläufe sind deutlich beschleunigt. Bereits heutzutage erreichen Marschflugkörper oder Raketen ihr Ziel schneller, als ein Mensch reagieren kann, um sie abzufangen. Das Flugabwehrraketensystem Patriot, das die Bundeswehr derzeit in der Türkei einsetzt, ist bereits in der Lage, automatisch und ohne menschliche Intervention feindliche Flugzeuge, taktische ballistische Raketen und Marschflugkörper abzufangen. Während des Gaza-Konflikts im November 2012 konnte das israelische Raketenabwehrsystem Iron Dome über 90 Prozent der aus dem Gazastreifen abgefeuerten Raketen abfangen.
Zudem sind autonome im Gegensatz zu ferngesteuerten Systemen schwerer zu entdecken und abzufangen. In ihrer derzeitigen Form müssen etwa Drohnen zu jedem Zeitpunkt den Kontakt zur Bodenkontrollstation halten, um Befehle zu empfangen und den Operateuren die gesammelten Daten wie Bilder und Videos zu übermitteln. Durch diese permanente Verbindung sind sie jedoch leicht von Radaranlagen zu entdecken und können abgefangen werden. Auch Manipulationen sind möglich: So verschwand im Dezember 2011 eine US-Drohne des zu diesem Zeitpunkt noch klassifizierten und technologisch höchst fortgeschrittenen Modells RQ-170 Sentinel in Iran. Die Vereinigten Staaten führten dies auf einen vermutlichen Absturz zurück. Kurz darauf präsentierte die iranische Regierung eine offenbar weitestgehend unbeschädigte Maschine und behauptete, iranische Cyberstreitkräfte hätten die Drohne gehackt, die Kontrolle übernommen und sie gelandet. Bereits 2008 hatten US-Truppen auf den Rechnern festgenommener irakischer Kämpfer Videos sichergestellt, die diese offenbar unbemerkt von US-Drohnen abgefangen hatten.
Ein ebenfalls häufig angeführtes Argument für eine weitere Automatisierung in der Militär- und Waffentechnik ist die damit verbundene Reduzierung der Gefahr, der Soldaten ausgesetzt sind. Allerdings erlauben es viele der heutigen ferngesteuerten Systeme bereits, sich bei einem Einsatz außerhalb des Schlachtfelds aufzuhalten. So müssen beispielsweise Drohnenpiloten nicht mehr alleine im Cockpit sitzen und den damit verbundenen Stress aushalten. Das mag die Wahrscheinlichkeit von Fehlern, die durch Unachtsamkeit, Zeitdruck, Stress und andere Emotionen entstehen, verringern.
Eine stärkere Automatisierung würde ferner dazu beitragen, die Effizienz der Streitkräfte zu steigern: Ist ein System in der Lage, mehr Aufgaben selbstständig zu übernehmen, könnte ein Operateur möglicherweise mehrere Drohnen oder einen Schwarm kleinerer Systeme gleichzeitig steuern beziehungsweise kontrollieren. Das ist vor allem für Staaten mit kleineren Streitkräften interessant.
In Diskussionen über Zukunftsszenarien rund um autonome Systeme auch in ihrer letalen Konfiguration vertritt der Robotiker Ronald Arkin eine der ungewöhnlichsten Thesen. Ihm zufolge können Roboter die besseren Kämpfer sein: Da sie rationaler seien als Menschen, weil sie sich nicht selbst schützen müssen, keine Emotionen wie Trauer oder Wut empfinden und keine niederen Beweggründe haben, würden sie auf dem Schlachtfeld die ethischeren Entscheidungen treffen – die Kriegführung würde "humaner".
Kontrolle und Verantwortung
Durch die zunehmende Automatisierung in der Militär- und Waffentechnik tun sich bereits jetzt Problemfelder einer "entmenschlichten" Kriegführung auf, die einer Klärung bedürfen.
Zum einen kann der Einsatz von automatisierten Systemen mit Blick auf politische Kontrollmechanismen Fragen aufwerfen. Die Haltung der Bundesregierung ist in diesem Zusammenhang eindeutig: "Die Bundeswehr [ist] eine Parlamentsarmee. (…) Es gibt keinen Einsatz der Bundeswehr ohne eindeutige Regularien zum Einsatz von Waffen. Damit ist auch der Einsatz von Drohnen durch die Bundeswehr nur möglich, wenn alle völkerrechtlichen und nationalen Regeln beachtet werden, und zwar nach Billigung durch den Deutschen Bundestag."
Doch gibt es auch andere Beispiele: So entschied etwa die US-Regierung 2011, für den Militäreinsatz in Libyen nicht die Zustimmung des US-Kongresses einzuholen. Da lediglich Drohnen im Einsatz seien, werde es "keine Kampfhandlungen und Feuergefechte" geben, in die US-Truppen eingebunden sein würden, sodass keine US-amerikanischen Opfer zu erwarten seien.
Zum anderen ist insbesondere mit Blick auf letale Systeme über die grundsätzliche Frage hinaus, ob ein Computer über Leben und Tod eines Menschen selbstständig entscheiden können soll, aus ethischer und juristischer Perspektive die Verantwortung für das Agieren eines autonomen Systems zu klären: Wer kann zur Rechenschaft gezogen werden, wenn ein autonomes System das falsche Ziel angreift oder gar Zivilisten tötet? Ist der Ingenieur dafür verantwortlich, dass der Sensor eines autonomen Systems falsche Informationen übermittelt und der Algorithmus Kinder mit Wasserpistolen für bewaffnete Soldaten hält? Oder ist vielmehr derjenige, der das System einsetzt und andere damit dem Risiko aussetzt, dass es fehlerhaft handelt, im Schadensfall zur Verantwortung zu ziehen?
Die Menschenrechtsorganisation Human Rights Watch beklagte 2015 in einem Bericht die Verantwortungslücke, die dadurch entstehe, dass die existierenden legalen Instrumente nicht auf vollständig autonome Waffensysteme angewandt werden können. Es gebe gravierende straf- und zivilrechtliche Hürden, um Individuen für die Handlungen autonomer Waffen zur Verantwortung zu ziehen. "Diese Waffen können Straftaten begehen – illegale Handlungen, die eine Straftat darstellen würden, wenn sie mit Vorsatz ausgeführt werden – für die niemand zur Verantwortung gezogen werden könnte."
Diese Fragestellungen sind im Übrigen auch im zivilen Kontext relevant. So starb etwa im Mai 2016 in Florida ein Mann am Steuer eines teilweise selbstfahrenden Autos, da der Autopilot einen herannahenden LKW nicht wahrgenommen hatte. Noch ist unklar, wer für den tödlichen Unfall zur Verantwortung gezogen werden wird.
Ächtung letaler Autonomie?
In diesem Zusammenhang finden auch auf internationaler politischer Ebene Diskussionen statt. Wie weit darf der Trend zu immer größerer Automatisierung gehen? Für die Entwicklung und den Einsatz von letalen autonomen Systemen tritt bislang kein Staat offen und aktiv ein.
Auf einem informellen Expertentreffen im Rahmen des UN-Übereinkommens über das Verbot oder die Beschränkung des Einsatzes bestimmter konventioneller Waffen (CCW) wurden im Mai 2014 die Gefahren und Risiken von letalen autonomen Waffensystemen diskutiert, mit dem Ziel, eine Ächtung im Rahmen des CCW anzustoßen. Von 117 Staaten unterstrichen lediglich Israel und die Tschechische Republik, dass autonome Waffensysteme möglicherweise Vorteile bringen könnten. Fünf Parteien – Ägypten, Ecuador, Kuba, Pakistan und der Heilige Stuhl – sprachen sich explizit für ein Verbot solcher Systeme aus.
Deutschland trat bei dieser Gelegenheit als Kritiker letaler autonomer Waffensysteme auf. Im Koalitionsvertrag der schwarz-roten Bundesregierung ist festgelegt: "Deutschland wird für die Einbeziehung bewaffneter unbemannter Luftfahrzeuge in internationale Abrüstungs- und Rüstungskontrollregime eintreten und sich für eine völkerrechtliche Ächtung vollautomatisierter Waffensysteme einsetzen, die dem Menschen die Entscheidung über den Waffeneinsatz entziehen."
Dem Politologen Frank Sauer zufolge muss die scheinbare internationale Einigkeit aber nicht zwangsläufig bedeuten, dass die Staaten die Ächtung solcher Systeme tatsächlich vorantreiben wollen. Das CCW habe den Ruf, extrem langsam zu arbeiten. Es sei möglich, dass "insbesondere solche Staaten, die Interesse an Entwicklung und Einsatz von LAWS haben könnten (aus militärtechnologischer Sicht in Frage kommen hier primär die USA, Israel, China, Russland, Großbritannien), den CCW-Prozess nutzen, um die LAWS-GegnerInnen dort in den kommenden Jahren auflaufen zu lassen".
In der Tat wird in den Vereinigten Staaten lauter über die Möglichkeiten von autonomen Systemen nachgedacht, und US-Präsident Barack Obama räumt ein, manchmal gerne Ironman schicken zu wollen.
Insofern mögen Absichtserklärungen nicht ausreichend sein. Nicht zuletzt, da die Entwicklung autonomer Systeme ein Selbstläufer ist: Robotik ist ein Dual-Use-Produkt, das in vielen Bereichen angewandt wird. Zivile Forschung im Bereich der Automatisierung und Autonomie kann zur Entstehung von letalen autonomen Waffensystemen beitragen, ohne dass aktiv an ihnen gearbeitet wird. Die Gefahr, ohne viel Zutun in eine Welt zu stolpern, in der Computer über das Leben und Sterben von Menschen entscheiden, ist größer, als oft angenommen wird.