
Das autonome Flugabwehrsystem Phalanx Mk-15 wurde in den 1970er Jahren entwickelt und in mehr als 20 Länder exportiert.
(Foto: Future of Life Institute (FLI))
Schon jetzt kommen in Kriegsgebieten halbautonome Waffensysteme zum Einsatz. Mithilfe künstlicher Intelligenz (KI) könnten sie künftig sogar selbstständig ihr Ziel festlegen - und auslöschen. Ein Szenario, das sogar KI-Experten mit Sorge erfüllt.
"Früher hieß es, Waffen töten keine Menschen - Menschen töten Menschen.
Nun, das tun sie nicht. Sie werden emotional."
Der perfekte Soldat tötet ohne jeden Skrupel. Er befolgt Befehle, er agiert rational - und er widerspricht nicht. Der perfekte Soldat ist eine Maschine. Eine neue Erkenntnis ist das nicht. War das Szenario eines um sich schießenden Killerroboters in den 1980er-Jahren aber noch Hollywood-Fiktion in Gestalt Arnold Schwarzeneggers, warnen heute selbst Tech-Experten wie Tesla-Chef Elon Musk und Apple-Mitgründer Steve Wozniak vor den Risiken des Einsatzes künstlicher Intelligenz (KI) zu militärischen Zwecken. In einem offenen Brief prophezeien sie gemeinsam mit inzwischen knapp 4000 KI-Experten eine "dritte Revolution der Kriegsführung" - nach der Entwicklung von Schießpulver und Atomwaffen.
Wie diese Revolution genau aussehen könnte, zeigt eine US-Kampagne zum Verbot von Killerrobotern in einem schockierend realistischen Video: Darin stellt ein fiktiver Firmenchef à la Steve Jobs oder Mark Zuckerberg den Prototyp einer Minidrohne vor, die - ausgestattet mit Sensoren, einer Software zur Gesichtserkennung und drei Gramm Sprengstoff - vollautonom ihre Zielperson ausschaltet. Als Schwarm eingesetzt, seien die Flugobjekte sogar in der Lage, "eine halbe Stadt auszulöschen", erklärt der CEO voller Stolz und setzt dann nach: "Natürlich die böse Hälfte". Doch die innovative Technologie fällt im Film in die falschen Hände. Und die Folgen davon sind verheerend.
"Dieser Film ist mehr als Spekulation", sagt Stuart Russell, Professor für Computer Science an der Universität von Kalifornien, am Ende des Videos. "Er zeigt […] Technologien, die wir bereits haben." Tatsächlich besitzt das US-Militär mit der Mikrodrohne Perdix schon jetzt funktionsfähige fliegende Systeme, die massenweise aus Kampfflugzeugen abgeworfen werden und nicht nur miteinander kommunizieren, sondern sich auch koordinieren und Aufträge erfüllen können. Laut Pentagon sollen sie lediglich zur Aufklärung eingesetzt werden. Doch die Sorge, Drohnen könnten irgendwann auch gezielt Menschen töten, ist keineswegs so abwegig wie es klingen mag. Aus diesem Grund beraten Experten der UN-Konvention zur Kontrolle "bestimmter konventioneller Waffen" (CCW) seit dem vergangenen Jahr über eine Ächtung autonomer Waffensysteme. Allein die Frage der Definition birgt allerdings schon Fallstricke.
Maschinen haben kein Bewusstsein

Der "Terminator" gehört zwar ins Reich der Fiktion - doch intelligente Waffensysteme gibt es schon heute.
(Foto: imago/ZUMA Press)
Denn ab wann ist ein Waffensystem überhaupt autonom? Und bedeutet Autonomie unweigerlich ein Sicherheitsrisiko für den Menschen? Der Philosoph Immanuel Kant verstand unter dem Begriff die Fähigkeit, selbstbestimmt, unabhängig und allein der Vernunft verpflichtet zu handeln. Das Bewusstsein über das eigene Selbst steht dabei im Mittelpunkt. Ein Bewusstsein fehlt jedoch den Maschinen. Insofern gehören die Geschichten vom "Terminator" tatsächlich in die Welt der Science Fiction. "Wenn wir aber an eine operationelle Autonomie denken - also an Geräte, die eine Vorgabe bekommen, etwas zu lokalisieren und zu vernichten, dann ist das in absehbarer Zeit durchaus denkbar", erklärt Reinhard Grünwald vom Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB).
Seit dem vergangenen Jahr arbeiten Grünwald und sein Team im Auftrag des Parlaments an einer Bestandsaufnahme zum technischen Entwicklungsgrad autonomer Waffen. "Wir geben keine Prognosen ab", sagt Grünwald, "sondern schauen uns an, was bereits eingesetzt wird, in welche Forschungsbereiche das Geld fließt und was andere Akteure - von den USA bis Google - aktuell machen." Zwar spricht sich die deutsche Regierung laut Koalitionsvertrag klar gegen autonome Waffen aus, doch im afrikanischen Mali setzt auch die Bundeswehr mit dem Flugabwehrsystem Mantis auf ein hochautomatisiertes Waffensystem zum Schutz vor Angriffen. Dass die Maschine vollautonom über die Bekämpfung eines Ziels entscheidet, ist jedoch ausdrücklich nicht gewollt. Der Mensch soll das letzte Wort haben.
Eine Branche entdeckt ihr Gewissen

Das hochautomatisierte Flugabwehrsystem Mantis kommt seit Anfang des Jahres in Mali zum Einsatz.
(Foto: picture alliance / dpa)
Befürworter autonomer Waffensysteme sehen darin ein nicht genutztes Potenzial: Immerhin könnten Maschinen wie Mantis wesentlich schneller etwa auf einen Beschuss durch Raketen, Granaten oder andere Geschosse antworten als der Mensch - Stichwort: Reaktionszeit. Wo die Kapazitäten des menschlichen Gehirns enden, sind Maschinen in der Lage, weiter Unmengen von Daten zu sammeln, zu bearbeiten und auf dieser Grundlage effektiv zu reagieren. Doch die Entscheidung über Leben und Tod packt uns auch bei der eigenen Existenz. Sie autonomen Waffensystemen zu überlassen, würde uns abhängig machen. Genau darin liegt die Gefahr. "Wir werden uns schwer tun, Kriterien zu finden, auf deren Basis wir die sogenannten 'Entscheidungen' von Maschinen noch überstimmen können", erklärt Friedensethiker Bernhard Koch im Gespräch mit n-tv.de.
Auf die Unfehlbarkeit der Technik zu vertrauen, hat sich in der Geschichte immer wieder als Irrweg erwiesen. Jüngstes Beispiel ist der offenbar fehleranfällige Autopilot von Tesla. Im US-Bundesstaat Florida war es im Sommer 2016 zu einem tödlichen Unfall gekommen, weil das automatische Fahrsystem einen Lastwagenanhänger fälschlicherweise als hochhängendes Straßenschild identifizierte. Im militärischen Kontext könnten Fehler im System noch weitreichendere Folgen haben. Was passiert zum Beispiel, wenn ein autonomes Waffensystem Zivilisten im Kriegsgebiet irrtümlich als Kombattanten einstuft? Wie soll die Maschine erkennen, dass sie ein Schiff in Seenot oder einen Soldaten, der sich ergeben will, laut Völkerrecht nicht angreifen darf? "Es ist völlig ungeklärt, ob diese Art der Bewertung von einem automatischen System geleistet werden kann", sagt Reinhard Grünwald.
Aufhalten lässt sich der technische Fortschritt laut Grünwald sicherlich nicht - schon allein deshalb, weil viele Entwicklungen auf dem Gebiet künstlicher Intelligenz zivilgetrieben seien. Doch dass ausgerechnet die geistige Elite vor den Folgen blinder Innovationswut warnt, sollte Politik und Gesellschaft zu denken geben. Gerade eine Woche ist es her, dass Google nach Protesten seiner Mitarbeiter ein Projekt mit dem US-Militär für den Einsatz künstlicher Intelligenz bei Drohnen beendet hat. Mehrere Entwickler hatten zuvor aus ethischen Gründen ihre Kündigung eingereicht. Für Bernhard Koch sagt das viel aus über die Risiken autonomer Waffentechnologie. "Wenn es diejenigen Leute mit der Angst zu tun kriegen, die sich mit diesen technischen Instrumenten am besten auskennen, dann hat das einiges Gewicht." Die dritte Revolution der Kriegsführung, so scheint es, sie hat schon begonnen.
Quelle: ntv.de