„Es gibt keinen rechtsfreien Raum“

Interview mit dem Völkerrechtler Andreas Zimmermann

1. May 2013 - 0:00 | von Andreas Zimmermann

Internationale Politik 3, Mai/Juni 2013, S. 26-31

Kategorie: Krieg/Kriegführung, Kriegsrecht, Konflikte und Strategien, Weltweit

Auch beim Einsatz technologischer Entwicklungen wie Drohnen und anderer automatisierter Systeme gelten die Regeln des humanitären Völkerrechts, erklärt Andreas Zimmermann im Gespräch mit der IP. Dabei muss genaue Aufklärung sicherstellen, dass zwischen Zivilisten und Kombattanten bzw. Kämpfern unterschieden wird, um Kollateralschäden zu minimieren.

IP: Herr Professor Zimmermann – sind neue Technologien wie Drohnen oder Roboter ein Problem im und für das humanitäre Völkerrecht?

Zimmermann: Zunächst gilt: Jede Art von Waffeneinsatz, gleichgültig ob sie durch Personen erfolgt, halbautomatisiert oder automatisiert, muss die Vorgaben des humanitären Völkerrechts einhalten, sofern wir uns innerhalb eines bewaffneten Konflikts befinden. Das ist ja die erste Frage, die geklärt werden muss: Sind die Regeln des Friedensvölkerrechts anwendbar oder diejenigen des bewaffneten Konflikts? In einer konkreten Situation wie derjenigen in Afghanistan befinden wir uns in einem nichtinternationalen bewaffneten Konflikt, der dadurch definiert wird, dass andauernde militärische Gewalt ausgeübt wird. Dann gelten die Regeln des humanitären Völkerrechts für Drohnen genauso wie für bemannte Flugzeuge. 

Es gibt also kein generelles Verbot des Einsatzes von Drohnen oder anderer „unmanned systems“. Deren Einsatz muss vielmehr von den konkreten Vorgaben des humanitären Völkerrechts geleitet sein: Insbesondere muss es im konkreten Fall stets möglich sein, zwischen Zivilisten und Kämpfern im nichtinternationalen bewaffneten Konflikt beziehungsweise zwischen Zivilisten und Kombattanten im internationalen bewaffneten Konflikt zu unterscheiden.

IP: Geht es also um die Verlässlichkeit der Aufklärung bei der Frage, ob es sich um Kombattanten bzw. Kämpfer oder eben um Zivilisten handelt?

Zimmermann: Genau. Als Beispiel mögen zwei konkrete Einsätze in Afghanistan dienen, bei denen die Bundeswehr in einem Fall amerikanische Drohnen zur Hilfe gerufen hatte, in einem anderen ein amerikanisches Kampfflugzeug. In dem bekannten Fall Kunduz hatte es offenbar eine „manuelle Aufklärung“ durch einen Späher vor Ort oder ähnliches gegeben. Daneben waren durch die Bordkameras einer zur Hilfe gerufenen amerikanischen F-16 Personen zu erkennen, die Waffen trugen. Zudem befand man sich in der Nähe des Feldlagers Kunduz. In einer anderen Situation hatten deutsche ISAF-Kräfte beobachtet, wie lokale Aufständische eine so genannte „Unkonventionelle Sprengvorrichtung“ (Improvised Explosive Device/IED) vergruben, ohne aber selbst die Möglichkeit eines Zugriffs zu haben. Da eine amerikanische Drohne in der Region war, wurde diese von den deutschen Einsatzkräften angefordert. Durch diese Drohne wurden die Aufständischen ausgeschaltet. Strukturell sind beide Fälle miteinander vergleichbar. Die Frage lautet dabei: Welche Art von Aufklärung kann geleistet werden? Und reichen die Aufklärungsmethoden – bei Drohneneinsätzen typischerweise durch Videos –, um in hinreichendem Umfang eine Unterscheidung zwischen Zivilisten und Kämpfern bzw. Kombattanten sicherzustellen? Das betrifft jedoch nur Drohneneinsätze im bewaffneten Konflikt. Wir reden nicht über Tötungen außerhalb von bewaffneten Konflikten wie etwa …

IP: In Pakistan?

Zimmermann: Das ist eine schwierige Frage. Auch hier gilt es zunächst zu klären: Befinden wir uns überhaupt im Anwendungsbereich des humanitären Völkerrechts – und wenn ja, gilt dies für Pakistan insgesamt? So ließe sich behaupten, dass es einen einheitlichen bewaffneten Konflikt zwischen der afghanischen Regierung, unterstützt durch die ISAF-Staaten, und Aufständischen gibt, die zum großen Teil in Afghanistan operieren, zum Teil aber auch in Pakistan. Man könnte aber auch argumentieren, dass es neben dem Konflikt in Afghanistan einen gesonderten, nichtinternationalen bewaffneten Konflikt zwischen den USA und nichtstaatlichen Akteuren in Nordpakistan gibt. Wegen der doch relativ engen sachlichen Beziehung zwischen den Aufständischen in Afghanistan und den Aufständischen in Nordpakistan, der räumlichen Nähe, des einheitlichen Kontexts spricht viel für die Annahme, dass ein einheitlicher nichtinternationaler bewaffneter Konflikt in Afghanistan existiert, der sich über die Grenze hinweg ausgedehnt hat. Wie groß diese „Delle“ geografisch ist, wie weit also das „Schlachtfeld“ reicht, ist dabei eine schwer und nur im Einzelfall zu entscheidende Frage. Gehört beispielsweise Abbottabad, wo man Osama Bin Laden aufgespürt und getötet hat, zu dieser „Delle“? Vermutlich nicht, denn dort fanden ja keine kontinuierlichen Kampfhandlungen statt mit der Folge, dass für diese Operation auch nicht das Recht des bewaffneten Konflikts anwendbar war. 

IP: War denn Osama Bin Laden überhaupt ein „Kämpfer“?

Zimmermann: Die Unterscheidung zwischen Zivilisten und Kombattanten beziehungsweise Kämpfern ist fundamental. Der Status des Kombattanten existiert dabei nur in internationalen bewaffneten Konflikten, an den sich das Recht anknüpft, an Kampfhandlungen teilzunehmen. Er hat zudem das Recht, als Kriegsgefangener interniert und behandelt zu werden. Den Kombattanten kennen wir nur im internationalen bewaffneten Konflikt: Staat A kämpft gegen Staat B. In nichtinternationalen bewaffneten Konflikten gibt es nur Kämpfer, die legitimes Ziel von Kampfhandlungen sind, und Zivilisten. Ein gegnerischer Kämpfer, also etwa ein Taliban, der mit einer Kalaschnikow in Afghanistan gegen ein ISAF-Lager vorgeht, ist unstreitig ein legitimes Ziel von Kampfhandlungen. Aber auch Zivilisten, die unmittelbar an Kampfhandlungen teilnehmen, sind legitime Ziele von Kampfhandlungen, selbst wenn sie nicht Teil der organisierten bewaffneten Aufständischen sind. 

IP: Und was qualifiziert als unmittelbare Teilnahme?

Zimmermann: Das ist nicht einfach zu definieren. Zum einen sind dies Kämpfer „in Aktion“, die also direkt Kampfhandlungen vornehmen; zum anderen Personen, die eine „continuous combat function“ innehaben, also eine andauernde Kampffunktion. Anders gesagt ist selbst ein Taliban-Kommandeur, der sich zu Hause aufhält, immer noch ein legitimes Ziel von Kampfhandlungen. Für Osama Bin Laden hätte sich also für den Fall, dass auf die fragliche Operation humanitäres Völkerrecht anwendbar war, die Frage gestellt: Hatte er immer noch eine continuous combat function inne? War er noch in einer führenden Position bei Al-Kaida oder im Grunde ein zurückgezogener Beobachter?

IP: Mit der wachsenden Technisierung des Krieges muss jedoch gefragt werden: Wer – oder was – stellt überhaupt die Aufklärung bereit? Kann eine Drohne bessere Aufklärung leisten, um eine so schwierige Frage zu beantworten: Handelt es sich in einer bestimmten Situation um Kämpfer, die an Kampfhandlungen beteiligt sind, oder um Zivilisten, die zufällig eine Kalaschnikow tragen? 

Zimmermann: Bei Einsätzen gegen feste militärische Ziele wie Brücken, Kraftwerke oder ähnliches, definiert das Objekt den militärischen Charakter; ist es als militärisches Ziel definiert, stellt sich „nur noch“ die Frage nach etwaigen Kollateralschäden. Werden in einem nichtinternationalen bewaffneten Konflikt Einsätze gegen Personen geführt, dann offenbart sich strukturell das gleiche Problem für Flugzeuge wie für Drohnen. Militärisch stellt sich also die Frage, ob eine Drohne durch den Umstand, dass sie langsamer und niedriger fliegt – ohne dabei einen Piloten zu gefährden – bessere Aufklärung liefern kann. Ohne zusätzliche manuelle Aufklärung bleibt das jedoch in einer Situation des nichtinternationalen bewaffneten Konflikts natürlich immer schwierig. 

IP: Also das, was gemeinhin „human intelligence“ genannt wird: durch Agenten vor Ort gewonnene Aufklärung.

Zimmermann: Ja. Die amerikanischen Streitkräfte scheinen bei ihren Einsätzen im Jemen oder auch in Pakistan recht allgemeine Kriterien entwickelt zu haben: Wenn sich jemand im Kampfgebiet aufhält, männlich ist und ein bestimmtes Alter hat, vielleicht eine Waffe trägt, wenn er sich in einer bestimmten Art und Weise bewegt, dann wird offenbar davon ausgegangen, dass er Kämpfer und damit legitimes Ziel von Kampfhandlungen ist. Auf dieser Grundlage gelangt man dann auch zu einer geringeren Anzahl von Kollateralschäden. 

IP: Das ist ja wohl eher schlicht …

Zimmermann: In der Tat dürften solche generellen „Klassifikationen“ nicht ausreichen. Nichtregierungsorganisationen gehen denn auch von enormen Kollateralschäden in Pakistan aus – einmal vorausgesetzt, dass wir Pakistan oder Teile Pakistans oder auch den Jemen als Gebiete definieren, in denen bewaffnete Konflikte stattfinden und die Tötung von Kämpfern damit überhaupt legitime Kriegshandlungen wären. Die USA kommen demgegenüber aufgrund ihrer Definition von „unmittelbar an Kampfhandlungen beteiligt“ natürlich auf viel geringere Zahlen. Das Problem ist: Drohnen werden in Gebieten eingesetzt, in denen der Zugang sehr schwierig ist, das heißt: Auch die Aufklärung ex post facto ist sehr viel schwieriger, sodass eine zuverlässige Überprüfung und Verifizierung vor Ort, wenn überhaupt, nur sehr schwer möglich sind. So behauptet dann die eine Seite, die Opfer einer Operation seien alles Zivilisten gewesen, und die andere, es habe sich ausschließlich um feindliche Kämpfer gehandelt. 

IP: Das Problem bei unbemannten Systemen ist also, dass sie Aufklärung in Gebieten leisten können, die kaum zugänglich sind – also just jenen Gebieten, in die sich Kämpfer in asymmetrischen Konflikten oft zurückziehen – und somit den Soldaten ersetzen können. Aber genau das erschwert eine Aufklärung post factum? 

Zimmermann: Ja, aber das Problem stellt sich vor allem in Situationen, die entweder überhaupt nicht als bewaffnete Konflikte zu qualifizieren sind oder allenfalls gerade an der Schwelle hierzu sind. Nehmen Sie nur einmal die erwähnte Situation, die in einer Bundestagsanfrage geklärt wurde: Wenn Sie sich in einer Lage befinden, in der klar ist, dass es in diesem Gebiet Taliban gibt, und Sie erkennen deutlich Personen, die an einer Straße einen Sprengsatz vergraben, dann ist der Einsatz von Drohnen genau wie in einer unmittelbaren Gefechtssituation völkerrechtlich relativ unproblematisch. Problematisch wird es, wenn man sich außerhalb des Rahmens des humanitären Völkerrechts bewegt und „gefährliche Gegner“ ausschalten will, die eben nun mal in einem bestimmten Gebiet leben, das man aber beim besten Willen nicht als Kampfzone definieren kann. Der Jemen kann nicht als Schauplatz eines nichtinternationalen bewaffneten Konflikts gelten. Das heißt: Es ist nicht vom Völkerrecht gedeckt, wenn dort ein Al-Kaida-Mitglied durch eine Drohne getötet wird. 

Es sind diese Szenarien, in denen Drohnen und andere automatisierte Systeme eingesetzt werden, welche die Problematik hervorrufen und nicht die Systeme oder die Technologie an sich. Wenn man jetzt über die Anschaffung von bewaffneten Drohnen für die Bundeswehr diskutiert – unbewaffnete Aufklärungsdrohnen verwendet sie ja schon – dann lautet für mich die eigentliche Frage: Über welche Einsatzszenarien reden wir? Geht es um Guerilla-Warfare wie bei Einsätzen der Israelis im Gaza-Streifen, dann ist das natürlich hochproblematisch, denn die Frage bleibt immer: Handelt es sich bei meinem „Ziel-objekt“ wirklich um Hamas-Kämpfer? Außerdem wissen wir nicht, ob es die „Zentrale“ der Hamas ist, in der sie sich aufhalten, oder ob es eben Schulen, Krankenhäuser oder Moscheen sind – die als Ziele dann grundsätzlich ausgeschlossen wären. 

IP: In diesen Fällen steuert ja immer mindestens ein Mensch die Entscheidung. Aber geht die Entwicklung im Bereich „Künstliche Intelligenz“ nicht ganz stark in Richtung selbst entscheidender Systeme – und wie sähe das dann völkerrechtlich aus?

Zimmermann: Erster Punkt: Auch für neue Systeme gelten die Regeln des humanitären Völkerrechts. Es gibt keinen rechtsfreien Raum im humanitären Völkerrecht. Zweiter Punkt: Es besteht die Verpflichtung bei der Entwicklung, Beschaffung und Einführung neuer Waffensysteme festzustellen, ob ihre Verwendung mit dem humanitären Völkerrecht vereinbar ist. Auch bei dem Einsatz neuer Waffen muss sichergestellt werden: Können wir zwischen Zivilisten und Kombattanten, Zivilisten und Kämpfern unterscheiden? Oder in diesem Fall: Sind autonome Systeme – also ohne „man in oder on the loop“ – tatsächlich zu solch komplexen Entscheidungsketten mit einem Zuverlässigkeitsgrad fähig, der dem Zuverlässigkeitsgrad von Menschen entspricht? Wenn etwa ein Kampfroboter in Gaza eingesetzt wird, dann müssten die Kriterien und die technologischen Fähigkeiten so präzise sein, dass sie dem Maßstab strukturell gleichkommen, der auch bei einer manuellen Kampfführung erreicht werden könnte. Das wären die generellen Parameter. Was das dann konkret bedeutet, ist sehr schwer zu beurteilen. Ich kenne die Systeme nicht, wir kennen sie alle nicht, weil es die Systeme so noch nicht gibt. 

IP: Die es aber bald geben könnte?

Zimmermann: Ich kann nicht beurteilen, wie schnell sich diese technischen Entwicklungen weiter vollziehen werden. Aber die Problematik ist klar: Es ist nicht besonders sinnvoll, Kampfroboter in einer Panzerschlacht einzusetzen oder im klassischen Krieg, in dem man die Verbände des Gegners unschwer erkennen kann. Sie werden dort eingesetzt, wo die Anforderungen an Differenzierungen am höchsten sind, wie etwa in einem Häuserkampf. 

IP: Es ergäbe sich also ein weiteres Dilemma: In diesen Situationen kann ein Roboter das Leben der eigenen Soldaten schützen – aber es gälte doch auch, die durch den Einsatz von Drohnen oder anderer unbemannter Systeme verursachten politischen Schäden in Grenzen zu halten?

Zimmermann: Hier betreten wir aber wieder einen neuen Bereich: Das Maß an Kollateralschäden, das im Völkerrecht zulässig ist, ist vielleicht größer  als das, was wir in Demokratien politisch aushalten. Vielleicht ist das auch ein Problem von Gesellschaften, die – anders als etwa die USA, Israel, aber auch Frankreich oder Großbritannien – eben nicht häufig Partei bewaffneter Konflikte sind. 

IP: Sollte man automatisierte unbemannte Systeme ächten – ähnlich wie Chemiewaffen?

Zimmermann: Es erscheint immer sinnvoll, zu einem völkerrechtlichen Vertrag über ein Waffensystem oder bestimmte Einsatzarten zu kommen, wenn es noch nicht existiert oder wenn diese noch nicht eingesetzt werden. Ein klassisches Beispiel wären die blindmachenden Laserwaffen, deren Einsatz bzw. Nichteinsatz durch ein Protokoll zur UN-Waffenkonvention geregelt wurde; etwa 100 Staaten haben diesen Vertrag ratifiziert. Auf diesen Vertrag hat man sich geeinigt, als diese Systeme noch gar nicht existierten und niemand richtig abschätzen konnte, wer sie angesichts der in diese Richtung weisenden technologischen Entwicklungen besitzen oder einsetzen könnte, oder ob sie einen militärischen Vorteil brächten. Angesichts eines „Schleiers der Unwissenheit“ ist der Abschluss eines völkerrechtlichen Vertrags am einfachsten. Was Drohnen oder automatisierte Systeme generell betrifft, dürfte der Zug meines Erachtens möglicherweise bereits abgefahren sein. So lange bestimmte Staaten glauben, einen technologischen Vorsprung zu besitzen und sich damit auch militärische Vorteile zu sichern glauben, spricht wenig dafür, dass es zum Abschluss eines völkerrechtlichen Vertrags kommt – den ja auch die wesentlichen Player ratifizieren sollten. Wenn bei einem solchen Vertrag aber diejenigen Staaten fehlen, die diese Systeme tatsächlich nutzen, dann läuft das Vertragsregime faktisch leer.

Die Fragen stellte die IP-Redaktion.

Prof. Dr. Andreas Zimmermann lehrt an der Universität Potsdam Öffentliches Recht. Seine Schwerpunkte sind unter anderem Völker- und Europarecht. Er ist außerdem Richter ad hoc am Europäischen Gerichtshof für Menschenrechte und leitet die Völkerrechtsausbildung des Auswärtigen Amtes.

 
Aktuelle Ausgabe

IP Wirtschaft

 

ip archiv
Meistgelesen