Killer-Roboter? Die Bedeutung von Künstlicher Intelligenz im militärischen Einsatz

Künstliche Intelligenz (KI) hat das Potenzial, Armut zu beenden und die Welt friedlicher zu machen. Doch sie birgt auch Risiken. Wie sicher ist nicht-menschliche Intelligenz, wenn es um Leben und Tod geht?

Von Sophie-Claire Wieneke
Veröffentlicht am 31. Jan. 2024, 14:04 MEZ
Das Militär hat KI schon längst für sich entdeckt. So werden bodentruppen wie diese hier mit ...

Drohnen werden unterstützend für Bodentruppen eingesetzt, damit diese feindliches Gebiet oder Gebäude erkunden können. Die Soldaten können so die Situation einschätzen, ohne sich selbst in Gefahr zu begeben.

Foto von stocj.adobe.com/Gorodenkoff

Künstliche Intelligenz unterstützt uns inzwischen in nahezu allen Bereichen des Lebens: im Journalismus, der Kunst, der Medizin oder eben im Militär. Mit steigender KI-Nutzung müssen wir uns jedoch fragen, welche Grenzen wir uns in Bezug auf ihre Nutzung setzen wollen. Nirgends ist diese Frage relevanter als in der militärischen Anwendung. 

Das Militär im Umbruch: Algorithmen treffen Entscheidungen

Künstliche Intelligenz (KI) beschreibt die Fähigkeit von Systemen, menschenähnliche Denk- und Entscheidungsprozesse zu simulieren. Dabei basiert KI auf Algorithmen und maschinellem Lernen, um Muster und Zusammenhänge zu erkennen. Hollywood hat unsere Vorstellung von KI durch Filme wie „Terminator“ mit Arnold Schwarzenegger oder „Matrix" mit Keanu Reeves geprägt. Dabei gibt es zahlreiche Formen von KI, die unser aller Leben verändern werden oder dies bereits tun. Die Roboter-Revolution kommt nicht in einigen Jahrhunderten, sie ist schon längst da - nur eben anders, als wir sie uns vorgestellt haben. 

Eine dieser Formen bildet die Hard- und Software, die längst auf dem Schlachtfeld angekommen ist. Im militärischen Kontext wird Künstliche Intelligenz dafür eingesetzt, komplexe Probleme zu lösen, die Sicherheit menschlicher Einsatzkräfte zu erhöhen, strategische Entscheidungen zu treffen und automatisierte Aufgaben zu übernehmen. 

In San Diego, Kalifornien trainiert das US-Militär in einem ehemaligen Filmstudio, das zu einem Militärübungsplatz umgebaut wurde. Dort wird beispielsweise mit dem autonomen Drohnen-Quadrokopter NOVA die Piloten-KI des amerikanischen Unternehmens Shield AI getestet. Das Unternehmen beschäftigt sich mit Luft-, Raumfahrt- und Verteidigungstechnologie.

Die Drohne erkundet ober- und unterirdische Gebäude in feindlichen Gebieten und liefert den Streitkräften Bild- und Tonmaterial, bevor diese selbst dort eindringen. Möglich ist das mit der sogenannten Piloten-KI. Diese verschafft Fluggeräten mehr Selbstbestimmung und Unabhängigkeit, damit sie Probleme selbstständig lösen und Situationen einschätzen können. Die Mission dieser KI: Die Suche nach Bedrohungen, damit die Bodeneinheiten entscheiden können, wie sie das Problem angehen. Nova kann den Truppen mitteilen, ob sich in einem Gebäude eine Bedrohung befindet oder lediglich unschuldige Zivilisten. Das Ziel: Menschen vor Schaden bewahren. 

Jede Militärmacht versucht, in der Entwicklung von KI fortschrittlicher zu sein als der Gegner. Insbesondere, wenn es um Informationsüberlegenheit geht. Wir bewegen uns auf eine Welt zu, in der nicht nur Armeen, sondern auch nicht-staatliche Akteure in der Lage sein werden, tödliche autonom-agierende Waffen einzusetzen. Wie es der Name schon sagt, handelt es sich um Waffen mit dem Potenzial zum Töten. Was bedeutet dieser Fakt für die Würde des Menschen, wenn das Töte im Krieg auf Algorithmen ausgelagert wird? Wird der Mensch dadurch zu einem Objekt? Für gefallene Soldaten oder Zivilisten mag es zwar keinen Unterschied mehr machen, ob sie durch eine autonom agierende Waffe oder einen Menschen gefallen sind. Doch über die Gesellschaft, die solch ein Vorgehen erlaubt, sagt es einiges über ihre grundlegenden Werte und humanitären Prinzipien aus. 

Treten wir die Entscheidung, ein Leben zu beenden, an Algorithmen ab? Das ist wohl eine der drängendsten Fragen unserer Zeit.
 

Bevor sich Bodentruppen in feindliches Gebiet begeben, können Aufklärugs-Drohnen wichtige Vorarbeit leisten, indem sie Gebäude und Gebiete auskundschaften. Die Soldaten können dann entscheiden, wie sie am besten vorgehen und das Risiko für sie selbst besser einschätzen. 

Foto von stock.adobe.com/Stavros

Wie KI das Militär revolutioniert

Zur Zeit der Obama-Regierung befand sich die Art der Kriegsführung im Umbruch. Man setzte Roboter für Missionen und Aufgaben ein, die vorher Menschen ausgeführt hatten. Man sich zu fragen: Wozu können Roboter im Militär noch eingesetzt werden? Größere Autonomie war dabei immer im Fokus der Überlegungen. Bisher wurden Roboter noch wie Spielzeug ferngesteuert und waren direkt an die Befehle eines Menschen gebunden. Schnell erkannte das Militär das Potenzial der Künstlichen Intelligenz für ihren Einsatz und begann nach Möglichkeiten der Integration zu suchen. So kann KI in der Informationsauswertung eine führende Rolle übernehmen, indem sie Informationen sammelt, verarbeitet und für Militärs aufbereitet. Denn nur auf Grundlage von ausreichend Informationen können im Krieg wichtige Entscheidungen getroffen werden. Diese werden nicht nur am Boden, sondern auch im Wasser, der Luft und dem Weltraum gesammelt. Für einen Menschen ist die enorme Datenmenge kaum zu bewältigen. Diese Aufgabe soll zukünftig die KI übernehmen. 

Ferngesteuerte Roboter folgen direkten Befehlen des Menschen, so war es zumindest bisher. Im Militär soll die KI jetzt jedoch komplexere Aufgaben erfüllen, bei denen sie eigenständig Situationen einschätzen und mit unvorhergesehenen Problemen umgehen können muss. Die KI benötigt also ein gewisses Maß an Intelligenz, um dieser Aufgabe gerecht zu werden.

Branden Tseng, ehemaliger US Navy Seal und Mitbegründer von Shield AI war selbst mehrfach in Afghanistan und weiß, wieso KI im Militäreinsatz so wichtig ist. Mit seiner Einheit musste er täglich bis zu 150 Gebäude stürmen. Das Risiko derartiger Operationen ist enorm. Versteckte Sprengkörper, feindlicher Beschuss und Feuergefechte auf engstem Raum sind nur einige der Gefahren, denen sich Bodentruppen stellen müssen. Es ist die gefährlichste Aufgabe, die einer Spezialeinheit oder der Infanterie im Kriegsgebiet zufallen kann. Wird ein Teamkollege verletzt oder getötet, ist das ein herber Verlust und eine Tragödie. Darin liegt für Brandon Tseng in seinem jetzigen Job eine große Motivation. Er kann dazu beitragen, Leben zu schützen, damit derartiges seltener vorkommt. Der Knackpunkt künstlicher Intelligenz liegt in der Zuverlässigkeit der Systeme und ob sie mit der Komplexität der echten Welt zurechtkommen. 

BELIEBT

    mehr anzeigen

    Soldaten werten die Daten und Bilder der Drohnen aus und besprechen ihr weiteres Vorgehen. So können Menschenleben geschützt werden. 

    Foto von stock.adobe.com/Parilov

    Schwarmtechnologie als Game-Changer im Militär

    Der Einsatz von KI im Militär ist inzwischen um einiges vielfältiger und revolutioniert den modernen Luftkampf. KI-gesteuerte Kampfjets sind in absehbarer Zeit Realität. Weitet man dies auf einen ganzen Schwarm aus, der als Gruppe fungiert und Informationen miteinander austauscht, kann man von einem Wendepunkt in der modernen Kriegsführung sprechen. Die Schwarmtechnologie wird zum Game-Changer für das Militär - als Prinzip für Kampfjets oder Drohnen. Als Vorbild dient das natürliche Schwarmverhalten, wie wir es bei Fischen, Bienen und Vögeln beobachten können.

    Hauptmann d.R. Dr. Hans Krech hat Vorträge zu dem Thema "Kriegsführung im Informationszeitalter: Hyperwar" gehalten und kennt das Potenzial von Schwarmtechnologie auf dem Schlachtfeld. Im Oktober 2016 ist der US-Air Force in diesem Bereich ein technologischer Durchbruch gelungen. Es konnte eine Verbindung des Waffensystems UCAV (Unmanned Combat Aerial Vehicle) mit Künstlicher Intelligenz. In dem bahnbrechenden Versuch wurden insgesamt 103 Perdix-Drohnen von drei Mehrzweckkampfflugzeugen der Art F/A-18 Super Hornet über einem Gebiet abgeworfen. Diese sollten fünf Aufgaben teilautonom lösen und waren dabei erfolgreich. Dabei handeln sie intuitiv und sind in der Lage als Schwarm zu agieren, ohne sich gegenseitig bei Flugmanövern zu beschädigen. Das ist nur einer von mehreren Vorteilen wenn es um Schwarmintelligenz geht. Es braucht keinen Alpha der Entscheidungsgewalt ausübt. Entscheidungen sollen kollektiv von der Gruppe getroffen werden.

    Ein weiterer Vorteil ist der, dass sie überaus robust und dadurch hocheffizient sind. Sie funktionieren weiter, selbst wenn es einen einzelnen Ausfall gibt. Diesen Vorteil will sich auch das Militär zunutze machen. Mit wachsender Autonomie könnte es bald Realität sein, dass ein einziger Mensch einen gesamten Schwarm von Drohnen oder Kampfjets kontrolliert. Mit Schwarmtechnologie kann die Kampfkraft eines einzelnen Soldaten um das hundertfache erhöht werden, ohne sein Leben in Gefahr zu bringen. Wenn wir die Möglichkeiten von Schwärmen voll ausschöpfen, haben wir ein neues Konzept zur strategischen Abschreckung gegen militärische Aggression. Dieses Potenzial kann jedoch auch in das Gegenteil kippen. Wenn sich Aggressoren dieses Prinzip zunutze machen, um ihre Ziele zu verfolgen, wächst die Gefahr immens

    Durch die Piloten-KI wird es zukünftig möglich sein, einen gesamten Schwarm bestehend aus Kampfjets von einer Person steuern zu lassen. 

    Foto von stock.adobe.com/Andrew Darkes

    Simulation der Realität: So funktioniert maschinelles Lernen

    Der Feind der KI ist das Chaos in der realen Welt. Dementsprechend schwer ist das Training dieser KI-Systeme. An diesem Punkt kommt das sogenannte Machine-Learning, also maschinelles Lernen, ins Spiel. Dabei wird einem System durch große Mengen an Informationen die Möglichkeit gegeben, wie ein Mensch zu lernen, interpretieren und zu einer Einschätzung zu kommen. Mit herkömmlichen Lernen wie wir es kennen, hat das nichts zu tun, denn es geschieht in rasender Geschwindigkeit. Die KI wird mit Millionen von Informationen gespeist und beginnt eigenständig daraus zu lernen. So geht es beispielsweise darum, Roboter-Hunden beizubringen, auf unterschiedlichen Untergründen zu laufen. KI lernt hierbei nicht auswendig, sondern erkennt primär Muster und Regeln nach denen sie sich verhält. Diese Art von Lernen erfordert Intelligenz. 

    Beim Machine-Learning werden große Datenmengen in Simulationen, also digitalen Abbildungen der Realität, gesammelt. Dabei werden tausende Situationen durchgespielt. Um bei dem Beispiel der Roboter-Hunde zu bleiben, wird simuliert, wie ein Roboter-Hund über verschiedene Untergründe geht. Dabei wird er einige mühelos überqueren können, andere bereiten ihm Probleme. Diese Erfahrungen werden aus den Simulationen auf einen echten Roboter-Hund übertragen und in einem realen Parcours getestet. 

    Roboter-Hunde können in Kriegs- oder Katastrophengebieten eingesetzt werden um unwegsames Gelände zu überqueren und Waren zu transportieren. 

    Foto von stock.adobe.com/Es sarawuth

    Dual-Use-Problem: Die Gefahr von KI-Missbrauch im Militär

    Der Brite Sean Ekins ist klinischer Pharmakologe und entwickelt mithilfe von KI Medikamente zur Behandlung von bisher unheilbaren Krankheiten. Die KI liefert Millionen Ideen in Form von Molekülen, welche die Medizin einen Schritt näher in Richtung Heilung bringen können. Dass Ekins die Kehrseite dieser positiven Möglichkeiten der KI entdecken würde, damit hätte er nicht gerechnet.

    In einem Test wollte der Pharmakologe herausfinden, ob die KI auch umgeschrieben werden kann. Bislang sollte sie Moleküle erschaffen, die weg von Toxizität führen, um zur Heilung bestimmter Krankheiten beizutragen. In dem Experiment änderte er den Befehl und ließ möglichst toxische Moleküle generieren. Am nächsten Tag präsentierte ihm die KI mehr als 40.000 für den Menschen hochtoxische Moleküle. Darunter die toxischsten, die den Menschen überhaupt bekannt sind. Die KI hat über Nacht zehntausende Ideen für neue chemische Waffen entwickelt. Der Kern der Diskussion rund um KI ist die Frage, wie wir sie als Gesellschaft nutzen wollen. Es ist ein Wettlauf zwischen Macht, mit der diese Technologien ausgestattet sind und der Weisheit, mit der wir sie regulieren.

    Zwei Foren der Vereinten Nationen (VN) haben sich für die Debatte zur militärischen Nutzung autonomer Waffen etabliert: Der Menschenrechtsrat und die Convention on Certain Conventional Weapons (CCW). Seit 2014 setzt sich Deutschland im Rahmen der VN-Waffenkonvention für die Regulierung von Letalen Autonomen Waffensystemen ein. Die Bundesregierung strebte 2019 in den Verhandlungen das weltweite Verbot vollautonomer letaler Waffensysteme an. Das Thema stand auch auf der Agenda des damaligen Ministertreffens der "Allianz für Multilateralismus" in New York. Hier wurde eine gemeinsame Erklärung zur Unterstützung der Leitprinzipien und zur konstruktiven Fortsetzung der Genfer Verhandlungen unterzeichnet. Beim CCW-Staatentreffen in Genf wurde eine bedeutende Weichenstellung erreicht: Erstmals wurden Leitprinzipien für den Umgang mit Letalen Autonomen Waffensystemen festgelegt. Diese politisch bindenden Vorgaben umfassen zentrale Aspekte wie menschliche Zurechenbarkeit und Verantwortung, menschliche Kontrolle in Befehlsketten und die uneingeschränkte Anwendung internationalen Rechts für alle künftigen Waffensysteme.

    Autonome Waffen kommen bereits an verschiedenen Orten dieser Welt zum Einsatz. Doch wie genau wird das Gefechtsfeld der Zukunft aussehen? Schon in wenigen Jahren dürfte sich uns ein beängstigendes Bild bieten, denn alle Technologien eint ein großes Problem: Man kann damit Gutes tun, aber auch Schlechtes. Das wird als sogenanntes Dual-Use-Problem bezeichnet. Man muss immer den Kontext bedenken, in dem KI eingesetzt wird. Beim Militär geht es speziell um Waffensysteme, die dramatische Auswirkungen auf unsere Sicherheit haben können. Viele Menschen haben das bedrohliche Bild von sogenannten Killer Robotern im Kopf. Werden Maschinen jemals in der Lage sein, zwischen Kämpfenden und Zivilisten zu unterscheiden? Für die KI gelten Menschen als Bedrohung, bis das Gegenteil bewiesen ist.

    Der Einsatz künstlicher Intelligenz im Militär birgt auch Gefahren. Je nachdem welche Absichten die einzelnen Parteien haben, kann damit schaden vorgebeugt oder gezielt verursacht werden. In diesem Fall ist die Rede vom Dual-use-Problem.

    Foto von stock.adobe.com/Andrey Popov

    Entwicklung und Einsatz von KI: Tempo vor Sicherheit?

    Die Entwicklung eines preisgünstigen, skalierbaren Waffensystems, das ohne menschliche Bediener auskommt, senkt die Hemmschwelle für Konflikte drastisch. Aktuell ist die Haltung des US-Verteidigungsministeriums die, dass die Entscheidung, jemanden auf dem Schlachtfeld zu töten, nur ein Mensch fällen kann - auch wenn das Töten dann durch eine Maschine auf Befehl eines Menschen übernommen wird.

    Das Rennen um die Überlegenheit im Bereich KI ist bereits in vollem Gange, bei dem die Militärmächte Russland, China und die USA um die Führung konkurrieren. Welche Richtlinien es im militärischen Gebrauch für KI in den USA gibt, ist für die Konkurrenz unwichtig. Jede Militärmacht spielt hier nach eigenen Regeln.

    Streitkräfte mit Unterstützung von KI werden Streitkräften ohne KI maßlos überlegen sein. Die KI wird alle Faktoren berücksichtigen, die den Ablauf von Kampfhandlungen beeinflussen und Strategien entwerfen, wie diese zu gewinnen sind. Das Militär spricht nicht nur davon, KI in individuellen Waffensystemen einzusetzen, um Ziele auszuwählen und zu töten, sondern auch davon, KI in die gesamte Befehlsstruktur zu integrieren. Die USA haben über die letzten 70 Jahre das fortschrittlichste Militär der Welt aufgebaut. Jetzt stellt sich die Frage, ob sie die Kontrolle darüber einem Algorithmus überlassen wollen. Diese Entscheidung könnte auch Einfluss darauf nehmen, wie derartige Themen zukünftig in Europa behandelt werden. 

    Die Rolle der Künstlichen Intelligenz in der Kriegsethik

    Die Möglichkeit, autonome Systeme einzusetzen, zeigt aus kriegsvölkerrechtlicher Sicht Verantwortungslücken auf. Wer trägt die Verantwortung, wenn Zivilisten durch Künstliche Intelligenz Schaden zugefügt wird? Wenn wir diese Aufgabe richtig angehen, können unzählige Menschenleben davon profitieren. Im Krieg würden wir mit Maschinen bezahlen, nicht mit Menschenleben. Aber machen autonome Waffen den Krieg wirklich humaner oder senken Sie die Hemmschwelle zum Töten? Nicht selten haben Bemühungen, einen Krieg humaner zu machen, den gegenteiligen Effekt. Ein Beispiel dafür liefert die Gatling Gun, entwickelt 1865 vom amerikanischen Erfinder Richard Jordan Gatling. Gatling suchte nach einer Lösung, um die Zahl der getöteten Soldaten im Bürgerkrieg nach Möglichkeit zu reduzieren. Das Ergebnis seiner Überlegungen war ein per Handkurbel betriebenes Gewehr, welches den Vorgang des Abdrückens automatisierte.

    Der ehemalige US-Navy Ranger Paul Scharre war als Scharfschütze in Afghanistan stationiert. Zu seinen Aufgaben gehörte es, nach feindlichen Kämpfern Ausschau zu halten. Die feindlichen Truppen schickten ein kleines Mädchen als Späherin vor. In dieser Situation zählt das Kind laut amerikanischem Kriegsrecht eindeutig als Feind, wodurch ein Ausschalten dieser Gefahr gerechtfertigt gewesen wäre. Im Kriegsrecht gibt es nämlich kein Mindestalter für Kriegsteilnehmer. Niemand aus Schares` Trupp zog auch nur in Erwägung, das Kind zu erschießen. Doch wenn eine KI-gesteuerte Drohne oder ein Roboter diese Aufgabe übernommen und nach Kriegsrecht gehandelt hätte, wäre das Kind gestorben. Genau hier liegt das Problem. Wie soll ein Roboter entscheiden zwischen: Was ist legal und was ist richtig? 

    Die Entwicklung und Nutzung von künstlicher Intelligenz hat in den letzten Jahren erhebliche Fortschritte gemacht. Neue Algorithmen und Techniken ermöglichen es den Systemen, immer komplexere Aufgaben zu bewältigen und menschenähnliche Entscheidungen zu treffen. Doch der Knackpunkt der KI bleibt, ob diese Systeme zuverlässig sind und mit der Komplexität der echten Welt zurechtkommen. 

    Trotz der vielfältigen Einsatzmöglichkeiten von künstlicher Intelligenz im militärischen Bereich gibt es zahlreiche Herausforderungen und Grenzen, die berücksichtigt werden müssen. Beispielsweise können Fehler in den Algorithmen schwerwiegende Konsequenzen haben, zudem besteht immer die Gefahr von Cyberangriffen auf künstliche Intelligenz-Systeme. Es ist daher wichtig, Sicherheitsmaßnahmen zu implementieren und die Technologie kontinuierlich weiterzuentwickeln.

    Dabei liegt es in unserer Verantwortung, wie viel Macht und Entscheidungsfreiheit wir künstlicher Intelligenz zumuten wollen.
     

    National Geographic Magazin 1/24.

    Foto von National Geographic

    Noch mehr spannende Artikel finden Sie im NATIONAL GEOGRAPHIC Magazin 1/24.

    loading

    Nat Geo Entdecken

    • Tiere
    • Umwelt
    • Geschichte und Kultur
    • Wissenschaft
    • Reise und Abenteuer
    • Fotografie
    • Video

    Über uns

    Abonnement

    • Magazin-Abo
    • TV-Abo
    • Bücher
    • Disney+

    Folgen Sie uns

    Copyright © 1996-2015 National Geographic Society. Copyright © 2015-2024 National Geographic Partners, LLC. All rights reserved