Wissen

"Gefährliche Zukunft" Hyperkrieg - steuert KI bald Soldaten?

00:00
Diese Audioversion wurde künstlich generiert. Mehr Infos
Drohnen des südkoreanischen Militärs bei einer Militärübung. Im Krieg der Zukunft könnte KI eigenständig Operationen durchführen.

Drohnen des südkoreanischen Militärs bei einer Militärübung. Im Krieg der Zukunft könnte KI eigenständig Operationen durchführen.

(Foto: picture alliance/dpa/AP)

Längst nutzt das Militär Künstliche Intelligenz für seine Zwecke. Doch Experten warnen: Ist die KI erstmal der Logik des Krieges unterworfen, könnte der Mensch die Kontrolle verlieren. Erste Tendenzen sind bereits sichtbar.

Die Künstliche Intelligenz (KI), mit der Kriegsführung revolutioniert werden soll, sieht aus wie ein Videospiel. Ende April veröffentlicht die US-Softwarefirma Palantir ein Werbevideo zu ihrer neuen Artifical Intelligence Platform (AIP). Mit ihr interagiert ein Soldat ähnlich wie mit ChatGPT. Nur soll die KI nicht bei den Hausaufgaben helfen oder Schreibarbeit abnehmen, sondern ein Kriegsgebiet überwachen, das im Video in Osteuropa angesiedelt ist. Die Ortswahl dürfte kein Zufall sein, obgleich das gezeigte Szenario fiktiv ist - noch.

"Alarm - unregelmäßige militärische Aktivität erkannt", warnt die Militär-KI ihr menschliches Gegenüber. Die Bedienoberfläche ist zweigeteilt, links der Chat, rechts ein Satellitenbild des Schlachtfelds. Der Soldat befiehlt dem System zunächst, eine Drohne loszuschicken. Die KI lässt sich den Auftrag von einem Kommandeur absegnen und liefert kurz darauf Aufnahmen eines feindlichen T80-Kampfpanzers.

Nach einer Blitzanalyse der verfügbaren Mittel werden dem Soldaten drei Optionen zum Umgang mit dem feindlichen Panzer vorgeschlagen: Angriff mit einem Kampfjet, mit Langstreckenraketen oder mit Fußsoldaten. Der Soldat leitet diese an seinen Befehlshaber weiter, der sich schließlich für einen Bodentrupp entscheidet.

Das letzte Wort hat der Mensch

Das Unternehmen Palantir, das sich mit umstrittenen Überwachungstechnologien einen Namen gemacht hat, betont den "ethischen Rahmen", in dem das KI-System AIP Teil der Kriegsführung werden soll. Auch wenn die Künstliche Intelligenz im Video schon eigenständig arbeitet, hat der Mensch das letzte Wort. Zugleich analysiert und reagiert die KI in einem Tempo, bei dem der Mensch nicht mehr hinterherkommt. Und im Krieg können schnelle Entscheidungen den Unterschied machen.

Die Kriegsführung der Zukunft, in der die KI fast alle Entscheidungen übernimmt, hat einen Namen: Hyperkrieg. Geprägt wurde der Begriff vom US-General John Allen. "Der Hyperkrieg wird kommen, und es wird ein Krieg mit einer Geschwindigkeit sein, die wir uns nicht einmal vorstellen können", sagte er in einem Interview mit der Denkfabrik Institute for International Political Studies. Als er in Afghanistan stationiert war, habe es Tage oder Wochen dauern können, bis eine größere Operation beschlossen worden sei. Im Hyperkrieg könne ein solcher Beschluss in Sekunden oder Minuten getroffen werden.

Der US-General hält den Hyperkrieg für unausweichlich und begründet das mit militärischer Logik. Selbst wenn die USA und ihre Verbündeten moralische Skrupel hätten, ständen sie unter Zugzwang: "Unsere Feinde werden keinen Menschen in der Entscheidungsschleife haben." Damit hätten sie einen gewaltigen Zeitvorteil. Denn im Hyperkrieg verhält es sich in etwa so wie bei Revolverhelden im Duell: Wer zu spät schießt, verliert.

Nicht nur in den USA, auch in China gehen Experten von einer solchen Entwicklung aus. "Das menschliche Gehirn wird nicht mehr in der Lage sein, die sich ständig verändernde Situation auf dem Schlachtfeld zu bewältigen", sagt Chen Hanghui, Wissenschaftler der chinesischen Armee, in einem Artikel über KI. Dann müsse ein Großteil der Entscheidungsbefugnis an hochintelligente Maschinen abgegeben werden.

KI befiehlt, Mensch kämpft

Bis es so weit sein könnte, wird es wohl noch Jahrzehnte dauern, sagt Paul Scharre von der Denkfabrik Center for a New American Security. In einem Auszug aus seinem Buch "Four Battlegrounds: Power in the Age of Artifical Intelligence" warnt er vor einem schleichenden Prozess, in dem die menschliche Entscheidungshoheit schrittweise unter die Räder gerät, weil immer mehr Aufgaben an die KI delegiert werden. Zunächst überwacht der Mensch die Maschine, doch bei fortschreitender Komplexität der KI-Systeme könne sich das Verhältnis umkehren: Der Computer plant dann die Kämpfe, die Soldaten kämpfen nur noch, befürchtet der Rüstungsexperte.

Laut Scharre droht mit militärischer KI ein Kontrollverlust. "Selbst wenn der Mensch entscheidet, ob er einen Konflikt beginnt, könnte er die Fähigkeit verlieren, die Eskalation zu kontrollieren oder einen Krieg zu einem von ihm gewählten Zeitpunkt zu beenden." Dazu kämen Unwägbarkeiten wie Unfälle oder unerwartete KI-Entscheidungen, bei denen der Schaden längst angerichtet wäre, bevor jemand eingreifen kann. "Die Menschheit riskiert eine gefährliche Zukunft", schreibt der Wissenschaftler.

Mehr zum Thema

Bereits jetzt befinden sich die globalen Großmächte in einem digitalen Rüstungswettlauf. Das US-Verteidigungsministerium räumt der KI-Entwicklung seit Jahren höchste Priorität ein. Zumindest bei autonomen Waffensystemen verspricht das Pentagon ein "angemessenes Maß an menschlichem Urteilsvermögen bei der Anwendung von Gewalt" an den Tag zu legen, ohne konkreter zu werden. Autokraten und Diktatoren dürften noch weniger Berührungsängste haben.

Die Firma Palantir freut sich indes über einen nach eigenen Angaben "beispiellosen" Ansturm auf ihr Produkt. Ausgewählte Kunden sollen bereits Zugriff auf AIP haben. "Wenn Sie diese Technologien richtig und sicher einsetzen, haben Sie eine Waffe, mit der Sie gewinnen können und die Ihren Konkurrenten und Gegnern Angst macht", sagt Palantir-Chef Alex Karp laut der US-Zeitung "Fortune".

Quelle: ntv.de

Newsletter
Ich möchte gerne Nachrichten und redaktionelle Artikel von der n-tv Nachrichtenfernsehen GmbH per E-Mail erhalten.
Nicht mehr anzeigen