Bereits im Einsatz

Forscher fordern Verbot autonomer Kampfroboter

Digital
19.06.2021 11:16

Nach einem vor wenigen Wochen veröffentlichten UN-Bericht über den Einsatz türkischer Kamikaze-Drohnen vom Typ STM Kargu-2 in Lybien erneuern hochrangige Wissenschaftler ihre eindringliche Forderung nach einem Verbot autonomer Kampfroboter. Mit dem Einsatz autonomer Waffen gegen menschliche Soldaten sei eine „rote Linie“ überschritten worden, noch sei es für ein Verbot aber nicht zu spät.

Die Wissenschaftler Stuart Russel, Anthony Aguirre, Emilia Javorsky und Max Tegmark hatten mit ihrem Future of Life Institute bereits 2017 - siehe oben - in einem viel beachteten Video vor den Gefahren autonomer Kampfroboter gewarnt. Nun erneuern die Informatiker und Physiker in einem Gastbeitrag im Ingenieursmagazin „IEEE Spectrum“ ihren Appell für ein Verbot.

In Lybien wurde „rote Linie“ überschritten
Der Einsatz der türkischen Kamikaze-Drohnen in Libyen als erster dokumentierter Fall des Einsatzes autonomer Waffen in einem bewaffneten Konflikt zeige, dass eine „rote Linie“ überschritten worden sei. Der Einsatz der STM Kargu-2 in Lybien, bei dem kein Kontakt zwischen einem menschlichen Piloten und der autonomen Lenkwaffe bestanden habe, entspreche genau jenem Szenario, vor dem die Forscher immer gewarnt hatten. Autonome Killerroboter zu verbieten, bevor sie zum Einsatz kommen, sei gescheitert. „Der Bedarf für einen Vertrag ist nun dringender als je zuvor.“

Bei der Waffe, die in Lybien zum Einsatz kam, handelt es sich um eine sieben Kilo schwere Drohne, die von der von Ankara unterstützten lybischen Regierung gegen die Truppen des Warlords General Chalifa Haftar eingesetzt wurde. Die Drohne soll vollautomatisch Jagd auf Versorgungstransporte gemacht haben, findet ihren Weg mit GPS und hoch entwickelten Systemen zur Bilderkennung. Auch eine Gesichtserkennung zur Identifikation von Zielpersonen sei eingebaut. Wird ein Ziel erkannt, fliegt die mit Splittermunition füllbare Drohne darauf zu und sprengt sich in die Luft. Kurzum: Die Drohne sei ein Killerroboter, analysieren die Wissenschaftler.

Befristetes Moratorium als Minimallösung
Jetzt sei rasches Handeln gefragt: Gemeinsam mit anderen Experten sei man zur Ansicht gelangt, dass es als erste und minimale Maßnahme ein „befristetes Moratorium für die Entwicklung, Nutzung, Überstellung und Nutzung tödlicher autonomer Anti-Personen-Waffensysteme“ brauche. Hier sei man etwa auf Linie des Internationalen Roten Kreuzes und vieler anderer NGOs. Auch aus der Politik - etwa dem österreichischen Außenministerium - wurden zuletzt Rufe nach einem Verbot laut.

Zitat Icon

Neben dem moralischen Problem, dass Entscheidungen über Leben und Tod Algorithmen anvertraut werden, zeigt unser Video auch, dass solche autonomen Waffen unweigerlich zu Massenvernichtungswaffen werden.

Appell in "IEEE Spectrum"

In ihrem Appell verweisen die Wissenschaftler noch einmal auf ihr 2017 veröffentlichtes „Slaughterbot“-Video, in dem sie die Gefahren autonomer Waffensysteme in falschen Händen effektreich skizzieren. „Neben dem moralischen Problem, dass Entscheidungen über Leben und Tod Algorithmen anvertraut werden, zeigt unser Video auch, dass solche autonomen Waffen unweigerlich zu Massenvernichtungswaffen werden, weil kein Mensch sie bedient und man sie in großer Menge einsetzen kann.“

Man erwarte, dass autonome Drohnen und Killerroboter sehr bald von vielen Streitkräften in ihr Arsenal aufgenommen werden könnten - nicht zuletzt, weil Länder wie China, Israel oder die Türkei bereits solche Systeme exportieren. So seien beispielsweise im Konflikt zwischen Aserbaidschan und Armenien um die Region Berg-Karabach auf aserbaidschanischer Seite Kamikaze-Drohnen aus Israel zum Einsatz gekommen. Chinesische Drohnen seien in verschiedene Länder des Nahen Ostens exportiert worden. Die Nachfrage wachse schnell, bieten solche Systeme Ländern ohne größere Luftstreitkräfte doch eine günstige Möglichkeit, das am Schlachtfeld zu kompensieren.

Zitat Icon

Wir möchten, dass unser Killerroboter-Video eine historische Erinnerung an einen Fehler sein wird, den die Menschheit nicht gemacht hat.

Appell in "IEEE Spectrum"

Nun brauche es schnell einen permanenten Vertrag zum Verbot solcher Waffensysteme, mahnen die Forscher. Es müsse bei der Entwicklung ferngesteuerter Waffen Mechanismen geben, die sicherstellen, dass diese nicht nachträglich in autonome Kampfroboter umgewandelt werden können, außerdem brauche es industrieweit gültige Regeln, die verhindern, dass zivile Drohnen Stil bewaffnet werden. „Wir möchten, dass unser Killerroboter-Video eine historische Erinnerung an einen Fehler sein wird, den die Menschheit nicht gemacht hat“, beenden die Wissenschaftler ihren Appell.

Loading...
00:00 / 00:00
play_arrow
close
expand_more
Loading...
replay_10
skip_previous
play_arrow
skip_next
forward_10
00:00
00:00
1.0x Geschwindigkeit
explore
Neue "Stories" entdecken
Beta
Loading
Kommentare

Da dieser Artikel älter als 18 Monate ist, ist zum jetzigen Zeitpunkt kein Kommentieren mehr möglich.

Wir laden Sie ein, bei einer aktuelleren themenrelevanten Story mitzudiskutieren: Themenübersicht.

Bei Fragen können Sie sich gern an das Community-Team per Mail an forum@krone.at wenden.

(Bild: krone.at)
(Bild: krone.at)
Kreuzworträtsel (Bild: krone.at)
(Bild: krone.at)



Kostenlose Spiele