Ist der Einsatz von bewaffneten Drohnen unmoralischer als mit anderen Kriegswaffen?

josef

Administrator
Mitarbeiter
#1

foto: ap/damian dovarganes
Eine Hellfire-Rakete auf einer Predator-Drohne

Drohnen: Kriegsführung vom anderen Ende der Welt
"Smart War" wird gerne als der Krieg der Zukunft gesehen – ist die Nutzung von Drohnen unmoralischer als andere Kriegswaffen?
Ein unbemanntes Luftfahrzeug fliegt über ein zugewiesenes Gebiet. Es spioniert, beobachtet und wenn die Anweisung dafür gegeben wird, tötet es auch. Einsatzgebiet der Drohne und Standort des Piloten unterscheiden sich zumeist massiv.

Drohnenkriegsführung ist keine Neuheit. In den Vereinigten Staaten war es ursprünglich bereits der damalige Präsident George W. Bush, der die Nutzung von Unmanned Aerial Vehicles (UAVs) zum Töten einführte, als er den "war on terror" startete. "Obama war es dann, der das Drohnenprogramm ausweitete. Er entschied, dass lethale Drohnen auch außerhalb von Kriegsgebieten, überall, wo sich potentielle Terroristen aufhalten könnten, genutzt werden", sagt die Wissenschafterin Laurie Calhoun, welche das Buch "We Kill Because We Can" über Drohnenkrieg geschrieben hat, im STANDARD-Interview. "Er hat das ‚gezielte Töten‘ normalisiert."

Vorbeugendes Töten
Calhoun spielt unter anderem auf die sogenannten "signature strikes" an, gezielte Angriffe, bei denen die Drohnen genutzt werden, um verdächtige Personen umzubringen, deren Verhalten jenem von Terroristen ähnele. In den meisten Fällen ist dies nicht definitiv nachgewiesen, die Angriffe sind eher vorbeugend. Meistens funktioniere dies durch "racial profiling", erzählt Calhoun – die Verdächtigen seien zumeist männlich, braunhäutig, im Militäralter und würden in Gebieten leben, bei denen angenommen wird, dass es Verbindungen zu Terroristengruppen wie dem IS oder Al-Qaida gibt. "Die Angriffe widersprechen dem Genfer Abkommen. Die Personen haben nicht die Möglichkeit, ihre Waffen niederzulegen – die meisten sind nicht einmal bewaffnet – oder sich überhaupt zu ergeben", so Calhoun. Eine Reportage der "Washington Post" zeigte auf, dass oft ein kleines Team einschätzt, wie gefährlich die beobachteten Personen sind. Um Zivilisten zu schützen, würde etwa die Anzahl an Männer, Frauen und Kindern abgezählt.

In späteren Berichten würden die getöteten Personen als eliminierte Terroristen abgeschrieben werden. "Das Problem ist, dass sie alle bloß Verdächtige sind. Der Großteil der Guantánamo Bay-Inhaftierten hat sich als unschuldig erwiesen – wenn man mit Drohnen tötet, gibt es nicht einmal einen Prozess." Ein gutes Beispiel sei der Britisch-Saudi-Staatsbürger Shaker Amer, welcher 2001 festgenommen und erst 2015 wieder freigelassen wurde. "Hätte man ihn zehn Jahre später als Verdächtigen identifiziert, würde er heute vermutlich tot sein und als eliminierter Terrorist gelten", sagt Calhoun.

Umgang der Piloten
Ein weitreichendes Argument ist, dass Drohnenpiloten aufgrund der Distanz und der simuliert wirkenden Umgebung desensibilisiert sind. Die Beendigung eines menschlichen Lebens sei nicht fassbar, weswegen es, ähnlich eines Videospiels, nicht als solches erkannt wird. Überhaupt seien Videospieler beliebte Kandidaten für den Job, wie die 2014er Dokumentation "Drone" aufzeigt. Grund dafür sei laut Studien ein erhöhter Fokus auf mehrere Details zugleich. "Der andere Standpunkt ist aber, dass Drohnenpiloten den Tod anderer sogar mehr mitbekommen als reguläre Soldaten", erzählt Calhoun. Drohnenpiloten müssten zusehen, wie ihre Feinde verbluten, um ihren Tod bestätigen zu können.

2017, mit Donald Trump an der Spitze der US-Amerikanischen Regierung, sollen sich die Drohnenangriffe in Ländern wie Afghanistan, Somalia und Yemen stark erhöht haben, wie der Bureau of Investigative Journalism vermeldete. Obama hatte, wie der Guardian berichtete, 2013 die Vorgaben, die eine "gezielte Tötung" durch UAVs erlauben würden, stark gelockert – Trump würde dies nun intensiv nutzen.

"Smart War" und Zukunft
Die Drohne wird gerne als das Mittel für den "Smart War" angepriesen, wie Calhoun erzählt. "Es werden keine Soldaten von der eigenen Reihe umgebracht und die Feinde trotzdem effektiv eliminiert." Ein Grund für diesen Gedanken sei, dass die Politik es in den vergangenen Jahren so dargestellt habe.

Zusätzlich stünde nun auch noch eine boomende Industrie dahinter – die Technologie hat sich ausgebreitet und hat einerseits den Konsumentenmarkt, andererseits Bereiche wie Agrikultur, Infrastruktur, Medien und Telekommunikation erreicht. Künstliche Intelligenz und Gesichtserkennung könnten wohl den nächsten Schritt in der UAV-Entwicklung darstellen.

Die US-Regierung hat bereits unter Obama begonnen, lethale Drohnen an Verbündete zu verkaufen. Auch China ist im vergangenen Jahr eingestiegen. Immer mehr Länder kämen in den Besitz von lethalen Drohnen. Das sieht Calhoun problematisch, weil es nur eine Frage der Zeit sei, bis ein nicht-demokratisches Land beginnen würde, die Technologie zu nutzen. "Das große Problem der Zukunft wird wohl sein, dass jeder, der eine bestimmte Regierung ablehnt, einfach umgebracht und dann als Terrorist denunziert werden kann." (muz, 19.5.2018)

Links
Laurie Calhoun – We Kill Because We Can
https://derstandard.at/2000073001821/Drohnen-Kriegsfuehrung-vom-anderen-Ende-der-Welt
 

josef

Administrator
Mitarbeiter
#2
KRIEG DER ZUKUNFT
Angriff der "KI"llerdrohnen, oder doch nicht?
Große Sorge nach einem UN-Bericht über angeblich autonom agierende Angriffsdrohnen. Werden sie uns von allein angreifen? Militärexperte Franz-Stefan Gady beruhigt
Tretminen sind unmenschlich. Darüber besteht weitestgehend ein gesellschaftlicher Konsens. Deshalb ist ihr Einsatz mittlerweile streng verpönt, deshalb haben wir sie als Menschheit auch verboten. Was macht sie neben der rohen Gewalt so besonders unmenschlich? Dass sie von Menschenhand erbaut wurden, letzten Endes aber ohne das direkte Zutun eines Menschen töten, mitunter auch spielende Kinder und arbeitende Bauern. Es lässt die Waffe so besonders brutal wirken. Auch weil niemand in letzter Minute eingreifen kann.

In den vergangenen Jahren wurde die Sorge hinsichtlich des entmenschlichten und automatisierten Tötens wieder stärker, als sich die Angst vor den Killerdrohnen langsam breitmachte. Für manche drängte sich sogar der Vergleich auf, wonach Landminen eine Art Vorstufe dieser modernen autonomen Angriffsdrohnen wären. Schließlich müsste und könnte in ihrer modernsten Ausführung der Mensch nicht länger eingreifen. Der vielbeschworene "human in the loop", der Mensch, der stets die letztgültige Tötungsentscheidung trifft, wird aus ebenjener Schleife herausgenommen. Das macht vielen Menschen Angst. Die Rufe nach einem Verbot von "Killerdrohnen", ähnlich jenem der Landminen, werden laut. Zu Recht?

Den Menschen macht aus, dass er Werkzeuge geschickter als alle anderen Lebewesen nutzt. Erfindungen dienen meist dazu, sich anstrengende, eklige oder gefährliche Arbeiten von einer Maschine oder einem Roboter abnehmen zu lassen.

Kurz gesagt: Die Drecksarbeit will keiner machen. Nun gehört das Morden und Töten für die allermeisten Menschen glücklicherweise eben auch nicht gerade zu den angenehmsten Tätigkeiten. Es erscheint deshalb nur logisch, dass der Tötungsakt mit dem Fortschritt der Technik und der Menschheit zusehends entmenschlicht wurde. Auch um die eigene Gefahr zu reduzieren


Die große Frage: wird KI künftig tatsächlich so in Drohnen und andere Geräte integriert, dass das gezielte Töten von Soldaten erleichtert wird, oder werden sich die Einsatzmöglichkeiten tatsächlich eher auf Spionage und logistische Einsätze – wie das im Bild gezeigte Auftanken eines Fighterjets – konzentrieren?
Foto: AFP PHOTO /BOEING/KEVIN FLYNN/HANDOUT

Größere Distanz zum Opfer
Zwar morden Menschen auch heute noch auf dieselbe Weise wie beim ältesten bekannten Mord der Weltgeschichte – nein, nicht der biblische Kain-und-Abel-Mord, sondern jener im nordspanischen Höhlensystem Sima de los Huesos, wo laut Ausgrabungen ein Mann vor 430.000 Jahren durch einen doppelten Schlag mit einem Stein auf die Schädeldecke umgebracht wurde. Dennoch verringerte sich im Laufe der letzten Jahrhunderte zusehends die Distanz von Täter zu Opfer.

Erst wurde der Speer erfunden, später die Schusswaffe, dann die Bombe aus dem Flugzeug oder die Interkontinentalrakete von der anderen Seite des Ozeans. Seit wenigen Jahren sind die professionellen Tötungskommandos der Heere gar immer öfter reine Joystickpiloten in irgendwelchen Bunkern in weit entfernten Ländern. Das ist für jene, bei denen das Töten zur Job-Description gehört, ebenso praktisch wie für die Verteidigungsministerinnen dieser Welt, die zu Hause weniger eigen Opfer zu beklagen haben. Zumindest sofern man aufseiten der hochentwickelten Staaten der Welt kämpft, die Unsummen für die Landesverteidigung und moderne unbemannte Drohnen ausgeben.

"Dauerbeschuss"
Die Angst vor den "Killerrobotern" ist ein in Science-Fiction-Literatur und Film weitverbreitetes und vor allem wiederkehrendes Element. Nun aber, so schien es, dürfte uns die zusehende Entmenschlichung des Kriegs auch im realen Leben eingeholt zu haben. Anfang Juni machte ein UN-Bericht die mediale Runde, wonach es bereits im Vorjahr bei den Kämpfen um Tripolis zur autonomen Verfolgung libyscher Rebellen durch eine Angriffsdrohne des türkischen Typs Kargu-2 gekommen sein könnte.

Der Expertenbericht blieb diplomatisch vage, sprach von einem "tödlichen autonomen Waffensystem", welches die Kämpfer "verfolgt" habe und das so programmiert sei, dass es "keinerlei aktiver Datenverbindung" zwischen dem Operator und dem Flugobjekt bedürfe. Es gibt keine bestätigten Opfer, der UN-Bericht legt aber nahe, dass es unter den Rebellen welche gegeben haben könnte. Nicht zuletzt hätten die Kämpfer unter "Dauerbeschuss" gestanden.


Die angeblich autonom agierende Drohne.
@metesohtaoglu


Dass die Drohne von regimetreuen Truppen eingesetzt wurde, gilt als gesichert, inwieweit sie sich ihre Ziele tatsächlich selbst ausgesucht hat, ist jedoch noch unklar. Klar ist: Auch heute gibt es schon semiautonome Systeme. "Sogenannte Loitering Munitions, Lenkwaffen, die über längere Zeit über einem Ziel herumkreisen, können schon heute autonom Ziele bekämpfen", sagt etwa der Militärexperte Franz-Stefan Gady zum STANDARD. Der große "Gamechanger" sei der libysche Einsatz also auf keinen Fall, "da es seit Jahrzehnten automatisierte Prozesse bei militärischen Systemen gibt, die durchaus ohne menschliche Kontrolle Ziele hätten bekämpfen können", sagt Gady.

Mangels klarer Definitionen über die verschiedenen Grade der Autonomie ist es aber prinzipiell schwierig zu sagen, wie groß die Kluft zwischen dem, was technisch bereits möglich ist, und dem, was praktisch zum Einsatz kommt, tatsächlich ist.

Automatik oder KI?
Die vom türkischen Rüstungshersteller STM entwickelte Waffe wird jedenfalls als "mit rotierenden Blättern" manuell oder autonom einsetzbare Angriffsdrohne beworben. Gady warnt aber vor den marketingwirksamen KI-Versprechungen der Rüstungsindustrie. "Es könnte auch eine simple Automatik, die mit vorprogrammierten Algorithmen arbeitet, im Spiel gewesen sein, die eine einfache Zielerkennung durchführte und dann das Ziel angriff", sagt der Rüstungsexperte. Es sei nicht überall KI drin, wo sie draufsteht!

Das Promo-Video.STM

Dass die "Killerroboter" nun aber großflächig oder auch nur in begrenztem Maße zum Einsatz kommen, schließt Militärexperte Gady aus. Den Hauptgrund dafür sieht er im inhärenten Vertrauensproblem, nämlich dass sich autonome Waffen (noch) nicht erklären können, warum sie eine bestimmte Handlung gesetzt haben. Das wiederum ist für die internationale Diplomatie unabdingbar.

Diskussionen über ein angebliches KI-Wettrüsten hält der Militärexperte angesichts des jüngsten Einsatzes für nicht angebracht. KI sei eine "Allzwecktechnologie, die erst dann militärisch bedeutsam wird, wenn sie mit anderen Technologien effektiv integriert wird." Man habe schließlich in den 1930ern auch nicht von einem Verbrennungsmotorenwettrüsten gesprochen. Die Kombination aber mache es aus, sprich: Was macht man mit den offensichtlichen Vorteilen der KI? Für Franz-Stefan Gady sind diese nach wie vor eindeutig in der Überwachung und der Aufklärungsarbeit, aber auch in der Logistik zu erkennen, weniger in der gezielten Tötung von feindlichen Soldaten.

Ethisch heikle Fragen
Gady sieht die Chance auf ein Verbot autonomer Waffen gleich null. Gadys Antworten machen klar: Er hält es für eine eindimensionale Lösung eines komplexeren Problems. Viel eher müsse man sich jetzt, wo KI zusehends in Militärs integriert wird, und da seien auch schwierige ethische Fragen zu stellen und beantworten: etwa ob es moralisch noch richtig sei, "Soldaten sterben zu lassen, weil man sich weigert, autonome Systeme gegen einen Gegner einzusetzen, der keine Skrupel hat, selbige zu verwenden". Hier muss der gesellschaftliche Konsens jedenfalls noch gefunden werden. (Fabian Sommavilla, 4.7.2021)

Zum Thema:
Militärforscher Gady: "Im Weltall gewinnst du keinen Krieg"
Krieg der Zukunft: Den Algorithmen die Waffen entziehen
Der Krieg von morgen: Ein unberechenbarer Hightechkampf
Atomwaffenexperte: "Das Pendel schwingt in die falsche Richtung"

Nach dem ewigen Eis: Droht der große Ressourcenkrieg in der Arktis?

Angriff der "KI"llerdrohnen, oder doch nicht?
 
Oben