Künstliche Intelligenz (KI) verspricht eine schnellere und effektivere Kriegsführung, stellt jedoch moderne Armeen vor komplexe ethische und strategische Probleme. Ein Pentagon-Memo deutete an, dass das Maven Smart System von Palantir fest in die US-Streitkräfte integriert werden soll. Dieses System identifiziert Ziele und schlägt passende Waffen ein, wodurch Aufgaben, die früher mehrere Stunden dauerten, nun in Sekunden erledigt werden können.
Die Geschwindigkeit der KI könnte zu einem entscheidenden Vorteil führen – eine sogenannte Zeitüberlegenheit. Doch diese Effizienz bringt auch neuen Druck für Entscheidungsträger mit sich. Beim jüngsten Konflikt im Iran feuerte das amerikanische Militär binnen 24 Stunden tausend Ziele ab.
Während der Nutzung von KI in militärischen Operationen, wie zuletzt im Gaza-Krieg durch israelische Streitkräfte, werden Bedenken laut. Daniel Möller Ölgaard vom Institut für Militärtechnologie warnt: “Wir wollen Soldaten, die eigenständig denken können und kritisches Denken trainieren.” Die Gefahr besteht, dass sie zu bloßen Assistenten der KI-Systeme degradiert werden.
Im Iran-Krieg zeigt sich, wie KI-gesteuerte Drohnenschwärme bestehende Verteidigungssysteme strapazieren. Trotz aktiver Abwehrsysteme in Israel verursachen iranische Drohnen Schäden und erfordern teure Gegenmaßnahmen. Während eine Drohne rund 30.000 Dollar kostet, belaufen sich die Kosten einer Abwehrrakete auf etwa vier Millionen Dollar.
Auch im Ukraine-Krieg offenbaren sich Herausforderungen: autonome Kamikazedrohnen sind schnell veraltet und haben Schwierigkeiten, feindliche Panzer zu erkennen. Dies führt zur Frage der sinnvollen Rüstungsinvestitionen.
KI kann zudem die Verantwortung der Entscheidungsträger mindern, wie eine Studie mit belgischen Offizieren zeigt. Ein psychologischer Schutzschild entsteht, wenn Handlungen nur noch algorithmisch abgestimmt werden. Dies könnte das Selbstverständnis demokratisch orientierter Soldaten beeinträchtigen.
KI-Modelle sind zudem fehleranfällig und neigen zu Verzerrungen. Eine Studie von Stanford deutete darauf hin, dass KI-Agenten in Simulationen oft deeskalierende Optionen meiden.
Die Auftragstaktik der NATO könnte durch umfassende KI-Systeme infrage gestellt werden. Das CSIS fordert eine neue Kommandostruktur, da die zentralisierte Nutzung von KI effektiver sein könnte. Trotz der Herausforderungen sehen moderne Armeen in KI große Vorteile, die sie nutzen wollen. Die Balance zwischen KI-Einsatz und menschlicher Entscheidungskraft bleibt eine komplexe Aufgabe.