19.06.2021 11:16 |

Bereits im Einsatz

Forscher fordern Verbot autonomer Kampfroboter

Nach einem vor wenigen Wochen veröffentlichten UN-Bericht über den Einsatz türkischer Kamikaze-Drohnen vom Typ STM Kargu-2 in Lybien erneuern hochrangige Wissenschaftler ihre eindringliche Forderung nach einem Verbot autonomer Kampfroboter. Mit dem Einsatz autonomer Waffen gegen menschliche Soldaten sei eine „rote Linie“ überschritten worden, noch sei es für ein Verbot aber nicht zu spät.

Die Wissenschaftler Stuart Russel, Anthony Aguirre, Emilia Javorsky und Max Tegmark hatten mit ihrem Future of Life Institute bereits 2017 - siehe oben - in einem viel beachteten Video vor den Gefahren autonomer Kampfroboter gewarnt. Nun erneuern die Informatiker und Physiker in einem Gastbeitrag im Ingenieursmagazin „IEEE Spectrum“ ihren Appell für ein Verbot.

In Lybien wurde „rote Linie“ überschritten
Der Einsatz der türkischen Kamikaze-Drohnen in Libyen als erster dokumentierter Fall des Einsatzes autonomer Waffen in einem bewaffneten Konflikt zeige, dass eine „rote Linie“ überschritten worden sei. Der Einsatz der STM Kargu-2 in Lybien, bei dem kein Kontakt zwischen einem menschlichen Piloten und der autonomen Lenkwaffe bestanden habe, entspreche genau jenem Szenario, vor dem die Forscher immer gewarnt hatten. Autonome Killerroboter zu verbieten, bevor sie zum Einsatz kommen, sei gescheitert. „Der Bedarf für einen Vertrag ist nun dringender als je zuvor.“

Bei der Waffe, die in Lybien zum Einsatz kam, handelt es sich um eine sieben Kilo schwere Drohne, die von der von Ankara unterstützten lybischen Regierung gegen die Truppen des Warlords General Chalifa Haftar eingesetzt wurde. Die Drohne soll vollautomatisch Jagd auf Versorgungstransporte gemacht haben, findet ihren Weg mit GPS und hoch entwickelten Systemen zur Bilderkennung. Auch eine Gesichtserkennung zur Identifikation von Zielpersonen sei eingebaut. Wird ein Ziel erkannt, fliegt die mit Splittermunition füllbare Drohne darauf zu und sprengt sich in die Luft. Kurzum: Die Drohne sei ein Killerroboter, analysieren die Wissenschaftler.

Befristetes Moratorium als Minimallösung
Jetzt sei rasches Handeln gefragt: Gemeinsam mit anderen Experten sei man zur Ansicht gelangt, dass es als erste und minimale Maßnahme ein „befristetes Moratorium für die Entwicklung, Nutzung, Überstellung und Nutzung tödlicher autonomer Anti-Personen-Waffensysteme“ brauche. Hier sei man etwa auf Linie des Internationalen Roten Kreuzes und vieler anderer NGOs. Auch aus der Politik - etwa dem österreichischen Außenministerium - wurden zuletzt Rufe nach einem Verbot laut.

Zitat Icon

Neben dem moralischen Problem, dass Entscheidungen über Leben und Tod Algorithmen anvertraut werden, zeigt unser Video auch, dass solche autonomen Waffen unweigerlich zu Massenvernichtungswaffen werden.

Appell in "IEEE Spectrum"

In ihrem Appell verweisen die Wissenschaftler noch einmal auf ihr 2017 veröffentlichtes „Slaughterbot“-Video, in dem sie die Gefahren autonomer Waffensysteme in falschen Händen effektreich skizzieren. „Neben dem moralischen Problem, dass Entscheidungen über Leben und Tod Algorithmen anvertraut werden, zeigt unser Video auch, dass solche autonomen Waffen unweigerlich zu Massenvernichtungswaffen werden, weil kein Mensch sie bedient und man sie in großer Menge einsetzen kann.“

Man erwarte, dass autonome Drohnen und Killerroboter sehr bald von vielen Streitkräften in ihr Arsenal aufgenommen werden könnten - nicht zuletzt, weil Länder wie China, Israel oder die Türkei bereits solche Systeme exportieren. So seien beispielsweise im Konflikt zwischen Aserbaidschan und Armenien um die Region Berg-Karabach auf aserbaidschanischer Seite Kamikaze-Drohnen aus Israel zum Einsatz gekommen. Chinesische Drohnen seien in verschiedene Länder des Nahen Ostens exportiert worden. Die Nachfrage wachse schnell, bieten solche Systeme Ländern ohne größere Luftstreitkräfte doch eine günstige Möglichkeit, das am Schlachtfeld zu kompensieren.

Zitat Icon

Wir möchten, dass unser Killerroboter-Video eine historische Erinnerung an einen Fehler sein wird, den die Menschheit nicht gemacht hat.

Appell in "IEEE Spectrum"

Nun brauche es schnell einen permanenten Vertrag zum Verbot solcher Waffensysteme, mahnen die Forscher. Es müsse bei der Entwicklung ferngesteuerter Waffen Mechanismen geben, die sicherstellen, dass diese nicht nachträglich in autonome Kampfroboter umgewandelt werden können, außerdem brauche es industrieweit gültige Regeln, die verhindern, dass zivile Drohnen Stil bewaffnet werden. „Wir möchten, dass unser Killerroboter-Video eine historische Erinnerung an einen Fehler sein wird, den die Menschheit nicht gemacht hat“, beenden die Wissenschaftler ihren Appell.

Dominik Erlinger
Dominik Erlinger
Kommentare
Eingeloggt als 
Nicht der richtige User? Logout

Willkommen in unserer Community! Eingehende Beiträge werden geprüft und anschließend veröffentlicht. Bitte achten Sie auf Einhaltung unserer Netiquette und AGB. Für ausführliche Diskussionen steht Ihnen ebenso das krone.at-Forum zur Verfügung.

User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB).

Mittwoch, 28. Juli 2021
Wetter Symbol