International

Ob autonome Panzer, Roboterhunde oder Drohnen – Unbemannte Waffensysteme werden zur Gefahr

Ob für autonome Waffensysteme oder Spionage: mit massiven Investitionen in Künstliche Intelligenz (KI) wollen sich viele Staaten die Vorherrschaft in der Welt sichern. Doch ohne Kontrolle kann die KI zur Gefahr werden – mit verheerenden Folgen.
Ob autonome Panzer, Roboterhunde oder Drohnen – Unbemannte Waffensysteme werden zur GefahrQuelle: www.globallookpress.com © Staff Sgt. Jason Grabiec

Ob Kampfroboter, autonom agierende Panzer, KI-gesteuerte Drohnen und Raketen oder selbstauslösende elektromagnetische Railgun-Kanonen: Autonome Waffensysteme, die Menschen töten können, sind längst Realität. Der Einsatz dieser Kriegsmaschinen markiert gar den Start der dritten Revolution in der modernen Kriegsführung – nach der Erfindung chemischer Waffen und der Atombombe. Doch die Anwendung solcher Systeme birgt Gefahren, denn der Verlust der menschlichen Kontrolle über den Einsatz von Gewalt, könnte letzten Endes in einem apokalyptischen Szenario enden, das stark an die Terminator-Filme erinnert. 

In der Filmreihe entwickelt das US-Verteidigungsministerium ein auf Künstlicher Intelligenz (KI) basierendes Waffensystem, das in seiner Funktionsweise der in der Realität existierenden Software "Gotham" des umstrittenen Datenunternehmens Palantir ähnelt. Skynet heißt die Software in dem Film, die durch einen nuklearen Erstschlag gegen Russland einen Atomkrieg auslöst und somit das Jüngste Gericht für die Menschheit besiegelt. Drei Milliarden Menschen sterben infolge des auf KI zurückzuführenden Krieges. Doch ist es damit nicht getan. Die Überlebenden sehen sich von diesem Zeitpunkt an mit einer von Skynet kontrollierten Armee von Kampfrobotern (Terminatoren) konfrontiert, die auch den Rest des Planeten von der Menschheit "säubern" sollen, da diese eine Gefahr für die Erde darstelle. 

KI-Kriege sind die Zukunft 

Reine Fiktion ist ein solches Szenario allerdings nicht mehr. Bereits heute werden in mehr als einem Dutzend Staaten rund 400 teilautonome oder sogar gänzlich autonom agierende Waffensysteme eingesetzt, die zum Teil auch von Superintelligenzssystemen, ähnlich denen von Palantir, gesteuert werden. Wobei diese Form der KI auf neuronalen Netzwerken basiert. Neben den Vereinigten Staaten, Russland und China, setzt insbesondere Israel auf die Implementierung solcher Systeme in sein Militär.  

So war es auch Israel, das die Technologie im "ersten KI-Krieg der Geschichte" im vergangenen Frühjahr einsetzte, als sich die israelische Armee im Gazastreifen elf Tage lang mit der radikalislamischen Palästinenserorganisation Hamas bekriegte. Die israelischen Verteidigungsstreitkräfte (IDF) griffen ihre Ziele mithilfe einer KI-Plattform an, die alle Daten über die im Gazastreifen ansässigen gegnerischen Truppen in einem System zusammenfasste, um die Analyse und Gewinnung von Informationen zu erleichtern. Hierbei zeigten Programme wie "Alchemist", "Gospel" und "Depth of Wisdom" in Echtzeit Veränderungen im Terrain, wodurch es der israelischen Armee laut eigenen Angaben möglich war, hunderte Ziele, darunter Raketenwerfer, zu bekämpfen. Insgesamt 150 ranghohe Hamas-Mitglieder seien den Angaben zufolge mithilfe von KI getötet worden.

Einzug autonomer Killerpanzer bei den Streitkräften  

Nun bestreitet das Land bereits den nächsten Schritt in der modernen Kriegsführung. Auf der Rüstungsmesse Eurosatory stellten das israelische Verteidigungsministerium und der Rüstungskonzern Elbit Systems in der vergangenen Woche in Paris ein autonomes Kampffahrzeug vor, das mit einer 30-Millimeter-Kanone und Raketen sogar Panzer bekämpfen kann. Der Clou an der Sache: Der Kampfpanzer soll in Zukunft vollends autonom agieren – ohne dabei den Einflüssen eines menschlichen Entscheiders unterstehen zu müssen. 

Das Kampffahrzeug namens M-RCV (Medium Robotic Combat Vehicle) ist demnach das Ergebnis einer Kooperation zwischen dem israelischen Ministerium für Verteidigungsforschung und -entwicklung (DDR&D), der Direktion für Panzer und Kampffahrzeuge und der israelischen Sicherheitsindustrie. Der M-RCV besticht durch seinen autonomen 30-mm-Geschützturm vom Typ BLR-2 des Rüstungsherstellers BL und ist mit dem aktiven Schutzsystem "Iron Fist" von Elbit ausgestattet, das herannahende Projektile und Raketen erkennt und ihnen explosive Abfangkörper entgegenschießt. Zudem verfügt der autonome Panzer über Feuerleit- und Missionsmanagement-Systeme sowie über einen Raketenwerfer, mit dem er gepanzerte Fahrzeuge bekämpfen soll. 

Außerdem sei der M-RCV nach Angaben seiner Entwickler für jede Mission gewappnet. Egal ob bei Tag oder Nacht, ob in flachem oder bergigem Terrain, das Fahrzeug lässt sich nahezu überall einsetzten – und das komplett autonom. Es bedient sich dabei mehrerer Sensoren, die Informationen über die Umgebung liefern und feindliche Ziele ausmachen. In seinem Inneren hält es zudem eine Drohne bereit, die der Panzer bei Bedarf zur Erkundung der Lage vorausschicken kann. Ein ausgedehnter Feldtest des autonomen Panzers soll Berichten zufolge schon 2023 starten. Dabei findet die Entwicklung solcher Panzer nicht nur in Israel statt. Auch Rüstungsunternehmen wie Rheinmetall arbeiten an unbemannten Kampffahrzeugen. Der Rheinmetall Mission Master, ein robustes unbemanntes Bodenfahrzeug (A-UGV) soll die moderne Kampfführung nach Angaben des Rüstungskonzerns revolutionieren. 

Wenden sich auf KI-basierende Waffensysteme irgendwann gegen uns selbst?

Allerdings werden zunehmend auch Bedenken gegenüber solchen Neuentwicklung laut. Experten bezweifeln unter anderem, dass autonom agierende Systeme einen  erfahrenen Kommandeur vor Ort ersetzten können. Zudem weisen sie auf die Gefahr von Hackerangriffen hin, denen solche automatisierten Systeme ausgesetzt sein können. Auch die Gefahr einer sogenannten Bewusstwerdung der Künstlichen Intelligenz besteht, was dazu führen würde, dass diese den Menschen laut Forschern früher oder später als einzige Gefahr für die Weiterexistenz des Planeten sähe. Zwar könne man den intelligenten Maschinen gewisse ethnische Grundregeln programmieren.

"Bricht man jedoch das Problem auf einfache Grundregeln aus der theoretischen Informatik herunter, zeigt sich, dass ein Algorithmus, der einer KI befehlen würde, die Welt nicht zu zerstören, versehentlich seine eigenen Prozesse zum Stillstand bringen könnte. Es wäre dann unklar, ob der Algorithmus die Bedrohung noch analysiert oder ob er aufgehört hat, die schädliche KI einzudämmen. Das macht diesen Algorithmus praktisch unbrauchbar", erklärte Iyad Rahwan, Direktor des Forschungsbereichs Mensch und Maschine des Max-Planck-Instituts, in einer Studie

Der Tod kommt von oben und unerwartet 

Mitunter führen diese Gefahren international zu Streit darüber, ob der Einsatz von künstlicher Intelligenz (KI) im militärischen Bereich verboten werden solle. Negativbeispiele für den Missbrauch der Technologie gibt es derweil genug. So meldeten die Vereinten Nation (UN) im vergangen Jahr, dass im Bürgerkrieg in Libyen im März 2020 real wurde, was die Science-Fiction seit Jahrzehnten prophezeite: Autonome Angriffsdrohnen, die Menschen auf dem Schlachtfeld faktisch auslöschen. Aus der Fiktion wurde somit eine wissenschaftliche Tatsache.

Wie die UN berichtet, griff die libysche Übergangsregierung die Truppen der rivalisierenden Haftar Affiliated Forces (HAF) mit Drohnen des Typs Kargu-2 ("Hawk 2") aus türkischer Produktion an. Nach Angaben der Vereinten Nationen sei es das erste Mal gewesen, dass autonome Jagdkillerdrohnen in einem Konflikt Menschen ins Visier genommen hätten. Die Drohnen "jagten und bekämpften aus der Ferne" Logistikkonvois der HAF und sich zurückziehende Kämpfer, heißt es in dem UN-Bericht. Die autonomen Drohnen waren so programmiert, dass sie Ziele angriffen, "ohne dass eine Datenverbindung zwischen dem Bediener und der Munition erforderlich war". Die unbemannten Luftfahrzeuge griffen also komplett autonom an – unabhängig von einem Piloten oder einem Kontrollsystem. 

"Entscheidungen über Leben und Tod dürfen nicht an Algorithmen delegiert werden", erklärten 62 KI- und Robotikforschende in einem offenen Brief, der im November 2022 veröffentlicht wurde. "Menschen sollten nicht von autonomen Systemen angegriffen werden, insbesondere sollte nicht die Entscheidung zum Einsatz von Massenvernichtungswaffen allein von Algorithmen ohne menschliche Eingriffsmöglichkeit getroffen werden", mahnten die Wissenschaftler mit Blick auf KI-basierte Systeme wie "die tote Hand", ein Atomwaffen-Führungssystem Russlands, das vollautomatisch einen allumfassenden Gegenschlag im Falle eines nuklearen Enthauptungsschlag auslösen wird. 

Autonome Waffen halten Einzug in die Ukraine 

Doch all diese durchaus berechtigten Bedenken halten die Entwicklung solcher Waffensysteme sowie deren Implementierung in das weltweite Kriegsgeschehen nicht auf. Ein Versuch der UN, sogenannte Killerroboter zu ächten, scheiterte am Veto mehrerer Staaten, darunter die USA, Indien, Israel, Großbritannien und auch Russland. So wundert es nicht, dass autonom agierende Waffensysteme zunehmend auch in der Ukraine zum Einsatz kommen. Wie etwa die Kamikaze-Drohne Switchblade, die den ukrainischen Streitkräfte von den USA zur Verfügung gestellt wurde. Diese ist dazu im Stande, vordefinierte Koordinaten anzugreifen oder Ziele selbst mithilfe Künstlicher Intelligenz zu identifizieren und auszuschalten. 

Außerdem plant die US-Armee offenbar, der Ukraine einen von Bosten Dynamics hergestellten Roboterhund zur Beseitigung von Minen und anderen Kampfmitteln zur Verfügung zu stellen. Das berichtet das US-Magazin Foreign Policy unter Berufung auf eine mit der Entscheidung vertraute Person.

HALO Trust, ein Entminungsunternehmen, das von der US-Regierung mit Arbeiten in der Ukraine betraut wurde, soll den Roboterhund demnach künftig zur Beseitigung von Mörsergranaten und Streumunition in ehemals russisch kontrollierten Gebieten in der Nähe der Hauptstadt Kiew einsetzen, heißt es in dem Bericht.  

Durch den Einsatz eines Roboterarms anstelle seines Kopfes könne der Roboterhund dabei helfen, nicht explodierte Munition – wie Streubomben – sicher zur Explosion zu bringen, ohne dabei eines der zehn HALO-Teams zu gefährden, die in Butscha und Browary im Einsatz sind. Was zunächst zwar gut klingt, kann jedoch auch gegenteilig verwendet werden. Auf eine Anfrage von Foreign Policy äußerte Bosten Dynamis zwar, dass die Geschäftsbedingungen des Unternehmens einen Einsatz des Roboters "als Waffe oder zum Zweck der Schädigung oder Einschüchterung" verhinderten. Kontrollieren lässt sich diese Behauptung allerdings nicht. 

Der Roboterhund kann mitunter darauf trainiert werden, sich wiederholende Aufgaben automatisch und ohne menschliche Hilfe auszuführen. Die potenzielle Einsatzmöglichkeiten des autonomen Systems – auch als Waffe – sind somit umfangreich. Ob autonome Kampfpanzer, sich selbst aktivierende Raketen oder Kampfroboter, die Entwicklung zeigt lediglich eines: Unkontrollierbares Leid und Zerstörung durch Maschinen sind bereits Realität. Etwas, wovor auch Manuel Cebrian, der Leiter der Forschungsgruppe "Digitale Mobilisierung" am Max-Planck-Institut, warnt

"Eine superintelligente Maschine, die die Welt kontrolliert, klingt nach Science-Fiction. Doch schon heute gibt es Maschinen, die bestimmte wichtige Aufgaben selbständig erledigen, ohne dass diejenigen, die sie programmiert haben, komplett verstehen, wie sie das gelernt haben. Daher stellt sich für uns die Frage, ob das für die Menschheit irgendwann unkontrollierbar und gefährlich werden könnte."

Mehr zum Thema - Unbemannte Luftfahrzeuge, KI-Atombomber, Palantir: US-Militär investiert in Künstliche Intelligenz

Durch die Sperrung von RT zielt die EU darauf ab, eine kritische, nicht prowestliche Informationsquelle zum Schweigen zu bringen. Und dies nicht nur hinsichtlich des Ukraine-Kriegs. Der Zugang zu unserer Website wurde erschwert, mehrere Soziale Medien haben unsere Accounts blockiert. Es liegt nun an uns allen, ob in Deutschland und der EU auch weiterhin ein Journalismus jenseits der Mainstream-Narrative betrieben werden kann. Wenn Euch unsere Artikel gefallen, teilt sie gern überall, wo Ihr aktiv seid. Das ist möglich, denn die EU hat weder unsere Arbeit noch das Lesen und Teilen unserer Artikel verboten. Anmerkung: Allerdings hat Österreich mit der Änderung des "Audiovisuellen Mediendienst-Gesetzes" am 13. April diesbezüglich eine Änderung eingeführt, die möglicherweise auch Privatpersonen betrifft. Deswegen bitten wir Euch bis zur Klärung des Sachverhalts, in Österreich unsere Beiträge vorerst nicht in den Sozialen Medien zu teilen.