Wissenschaftler findet Drohnen unbedenklich Keine Angst vor "Joystick-Mentalität"
26.05.2013, 09:47 Uhr
Eine Drohne vom Typ X-47B wird von einem Flugzeugträger aus gestartet.
(Foto: Reuters)
Die Politik diskutiert heftig, ob sie der Bundeswehr den Kauf von Kampfdrohnen erlauben soll. Kritiker fürchten, dass durch sie die Hemmschwelle zum Töten sinkt und Kriege noch brutaler werden. Doch genau das Gegenteil könnte der Fall sein.
Die Bundeswehr arbeitet daran, unbemannte Kampfflugzeuge anzuschaffen. Die Drohnen sollen Soldaten bei Gefechten unterstützen, doch die Deutschen sind kritisch: Eine deutliche Mehrheit will nicht, dass die Luftwaffe die fliegenden Roboter anschafft. Die Kritiker befürchten, dass Kriege ausarten, wenn an der Front Maschinen kämpfen, die aus sicherer Entfernung gesteuert werden. Der Krieg wird automatisiert, Menschen werden ohne Gerichtsverfahren gezielt getötet.
Die Debatte kommt aus den USA: Präsident Barack Obama muss sich gegen heftige Kritik verteidigen, weil seit seinem Amtsantritt in großem Stil mögliche Terroristen durch Drohnenangriffe getötet werden. Immer wieder sterben dabei auch Zivilisten. Die Verluste führen in den betroffenen Ländern wie Pakistan zu Hass auf die USA. Erst jetzt will Obama sicherstellen, dass bei diesen Angriffen keine Unbeteiligten umkommen.
Nicht alles, was mit Drohnen möglich ist, sollte auch erlaubt sein. Aber grundsätzlich sei gegen den ferngesteuerten Krieg nichts einzuwenden, sagt nun der Wissenschaftler Wolfgang Richter von der staatlich finanzierten "Stiftung Wissenschaft und Politik" (SWP). Er hat ein Thesenpapier vorgelegt, in dem er sich nüchtern den ethischen Fragen stellt, die der Einsatz von Kampfdrohnen mit sich bringt.
"Gezielte Tötungen" kein Argument
Welche Waffen völkerrechtlich erlaubt sind und welche nicht, regeln die Genfer Konventionen. Mit dem Abkommen verpflichten sich praktisch alle Staaten der Erde dazu, auch im Krieg bestimmte Grenzen nicht zu überschreiten, um Zivilisten nicht unnötig zu gefährden. Drohnen fallen aber nicht darunter, weil sie keine Waffe seien, sondern nur der Träger einer Waffe, so Richter. Nur weil sie bei den fragwürdigen "gezielten Tötungen" zum Einsatz kommen, könne man sie nicht verbieten.
Dem Argument der gesenkten Hemmschwelle, Richter nennt es "Joystick-Mentalität", setzt das Papier drei Gegenargumente entgegen: Erstens würden Soldaten unter Lebensgefahr – also etwa ein Kampfpilot in einem Gefecht – "bisweilen überreagieren, statt die Umstände abzuwägen". Die Steuermannschaft einer Drohne befindet sich aber eben gerade nicht in Lebensgefahr und handelt demnach überlegter. Zweitens wird auch bei anderen modernen Waffen die Abschussentscheidung weit entfernt vom Ziel getroffen. Das Papier nennt Artillerie, Cruise Missiles, ballistische Raketen und Kampfflugzeuge mit weit reichenden Abstandswaffen. Und drittens sei auch die Fernsteuerung kein Problem: Die Entscheidung über den Einsatz einer Waffe treffe nämlich ohnehin nicht derjenige, der sie bedient, sondern eine übergeordnete Führung.
Linke warnt vor "autonomen Killer-Robotern"
In diesem Punkt liegt aber auch das eigentlich Neue an den fliegenden Kampfrobotern: Wie sich das Gerät verhält, könnte zum Teil ohne Fernsteuerung und stattdessen durch ein automatisches Programm festgelegt werden. Wissenschaftler Richter weist darauf hin, dass das bedingt schon bei anderen Waffensystemen der Fall ist: Seeminen etwa reagieren auf die Geräusche von Schiffsschrauben, Fahrzeugminen werden durch Druck ausgelöst, Luft-Luft-Raketen fliegen Hitzequellen an, Luft-Boden-Raketen orten Radarwellen. Entscheidend sei hierbei, dass "die Verantwortung der Kommandeure gewährleistet" bleibe.
Doch es ist theoretisch vorstellbar, dass moderne Technik an Bord von Drohnen noch größere Möglichkeiten schafft: Drohnen könnten vermeintliche Feinde selbst erkennen und selbst einen Abschuss auslösen, ohne dass dies von einem Kommandeur bestätigt werden muss. Richter schreibt, wer davon ausgehe, dass Drohnen " künftig selbständig 'Krieg führen' und das Führungssystem aushebeln, schätzt das Wesen politischer und militärischer Führung und ihrer Ebenen falsch ein." Die Kontrolle abzugeben, "widerspräche militärischen Führungsnormen". Doch die Angst vor solchen Systemen bleibt. Auch die Linkspartei warnt vor der "Entwicklung autonomer Killer-Roboter". Richter schlägt darum ein neues Abkommen vor, das Systeme verbietet, die vollständig autonome Angriffe ausführen könnten. Dass sich aber das Militär der Roboter-Technik bediene, sei generell kein Problem. "Eine pauschale Ablehnung autonom agierender Waffensysteme erscheint weder militärisch weckmäßig, noch ethisch oder völkerrechtlich geboten", so sein Fazit.
Quelle: ntv.de