Der Einsatz von künstlicher Intelligenz (KI) in militärischen Konflikten, wie etwa im Iran-Krieg, im Gazakonflikt oder im Ukraine-Krieg, wird oft mit Begriffen wie Killerdrohnen und autonomer Kriegsführung assoziiert. Diese Vorstellung wirft ethische Fragen auf: Dürfen Maschinen Entscheidungen über Leben und Tod treffen?
Tatsächlich ist die Anwendung von KI im Militär komplex und vielfältig, weit entfernt vom simplen Bild des Killerroboters. Eine Analyse entlang der sogenannten “kill chain” verdeutlicht verschiedene Einsatzbereiche: Vom Sammeln von Informationen über Planung bis hin zur Auswertung nach einem Angriff.
So helfen Computer Vision-Systeme bei der Erkennung von Militärfahrzeugen in Satellitenbildern. Das amerikanische “Project Maven” nutzt seit 2017 neuronale Netze für eine höhere Bilderkennungspräzision. Auch die Analyse großer Datenmengen, wie Abhörprotokolle oder Social-Media-Inhalte, profitiert von KI-Unterstützung.
Sprachmodelle und Mustererkennungssysteme beschleunigen die militärische Stabsarbeit. Das israelische Programm “Lavender” nutzt beispielsweise diverse Datenquellen zur Einschätzung potenzieller Angriffsziele im Gazastreifen, wobei der Entscheidungsprozess trotz teilweiser Automatisierung noch von Soldaten getroffen wird.
Militärsoftware wie die von Palantir bietet einen Überblick über Ziele und Ressourcen. Autonomie spielt hier eine beschränkte Rolle; sie dient eher der Effizienzsteigerung, ohne menschliche Eingriffe vollständig zu ersetzen.
Drohnentechnologie zeigt die Grenze zwischen manueller und maschineller Steuerung auf. Im Ukraine-Krieg werden Einwegdrohnen eingesetzt, bei denen Bilderkennungs-KI greift, wenn der menschliche Pilot die Kontrolle verliert. Auch autonom agierende Systeme sind bekannt, wie die libysche Angriffsdrohne.
Israels “Iron Dome” illustriert den Wert vollautomatisierter Verteidigungssysteme: Sie reduzieren Reaktionszeiten erheblich und minimieren Fehlentscheidungen durch Maschinen. Allerdings sind völlig autonome Angriffssysteme aufgrund variabler Gegebenheiten vor Ort noch Zukunftsmusik.
Die sogenannte “Roboterschlacht” in Lipzi, Ukraine, bei der Drohnen und Fahrzeuge ferngesteuert eingesetzt wurden, zeigt die aktuelle Grenze von Autonomie. Chinesische Social-Media-Videos suggerieren fälschlicherweise vollständig eigenständige Drohnenoperationen; tatsächlich erfolgt hier eine zentrale Steuerung.
Nach der Auswertung von Angriffen, wie das Tech-Magazin “Wired” über ein System des KI-Unternehmens Anthropic berichtete, wird menschliche Einschätzung teilweise durch Chatbots ersetzt. Diese haben zwar keinen direkten Einfluss auf Leben und Tod, beeinflussen jedoch die Aufarbeitung von militärischen Aktionen.
KI hat den Krieg bereits entscheidend verändert, doch der Weg zu einer vollständig autonomen Kriegsführung ist noch weit.