Maschinen-Ethik

Wiener KI-Experte will Robotern ein Gewissen geben

Elektronik
13.11.2013 10:33
Wenn Autos selbstständig fahren sollen, Roboter alte Leute betreuen und Kampfmaschinen statt Menschen Kriege führen, muss man den Automaten auch beibringen, eigenständig ethische Entscheidungen zu treffen. Das meint Robert Trappl vom Österreichischen Forschungsinstitut für Artificial Intelligence. Er hat Experten dazu eingeladen, eine "Ethik für Roboter" zu entwickeln.

"Vor ein paar Wochen ist in Kärnten zum Beispiel ein Schulbuslenker einem Reh ausgewichen – das geschah vermutlich unterbewusst, war aber trotzdem eine ethische Entscheidung – und der Bus ist mit ihm und den Kindern einen Hang hinuntergestürzt", sagt Trappl. Der Experte für künstliche Intelligenz glaubt, dass man ein automatisiertes Fahrzeug nicht so programmieren würde, dass es in dieser Situation einem Tier ausweicht. Etwas komplizierter wäre der Fall jedoch, wenn ein Auto entscheiden muss, ob es drei plötzlich auftauchende Fußgänger überfährt oder gegen eine Wand lenkt und dabei die Leben der Insassen aufs Spiel setzt.

Bauanleitung für Ethik-Systeme in Maschinen
Weil die Ethik für Roboter so ein brisantes Thema und Forschungsgebiet ist - zahlreiche Autohersteller, aber auch der Internetkonzern Google arbeiten bereits an selbstfahrenden Autos, Prototypen sind schon in mehreren US-Bundesstaaten unterwegs -, hat Trappl daher Wissenschaftler aus Europa und den USA eingeladen, um gemeinsam eine Art Bauanleitung für Ethik-Systeme in Maschinen zu entwerfen. Diskutiert werden soll etwa, nach welchen ethischen Kriterien Maschinen ihre Handlungen ausrichten sollen und wie man solche Systeme testen kann. Die Ergebnisse sollen in Buchform erscheinen, so Trappl.

Schaden und Nutzen abwägen
Die Kriterien könne man sich etwa von Medizinern abschauen, also die Roboter so programmieren, dass sie nur handeln, wenn sie niemandem damit schaden, dies einen Nutzen verspricht und die Autonomie der anvertrauten Person nicht eingeschränkt wird. Sind auch andere Menschen betroffen, dürfte niemand grundlos bevorzugt werden. Ein anderes Prinzip wäre zum Beispiel, dass die Maschinen bei jeder kniffligen Situation innerhalb von Millisekunden im Internet nach ähnlichen Situationen und dazu passenden, als ethisch korrekt bewerteten Entscheidungen suchen, erläutert Trappl.

"Je enger die Beziehung zwischen Roboter und Mensch wird, umso subtiler müssen die ethischen Kriterien sein", erklärt er. Wenn ein Roboter zum Beispiel den ganzen Tag lang eine Seniorin betreut, wäre es vermutlich notwendig, dass er sich ein Bild über ihre Persönlichkeit und ethischen Prinzipien macht, um sie nicht mehr zu vergrämen, als zu helfen. "Wenn der Pflegeroboter zu sehr bevormundet und ständig an Dinge erinnert, die man ohnedies selbst weiß, wird man überbetreut sein und ihn bald hassen."

Akzeptanz gegenüber Robotern entscheidend
Von der Akzeptanz würde es schließlich abhängen, ob man bestimmte Systeme überhaupt nutzen würde, meint Trappl. "Ich weiß nicht, ob jemand zum Beispiel ein automatisiert fahrendes Auto kaufen würde, das ihn vielleicht in einen Abgrund lenkt, wenn drei Menschen vor ihm auf der Straße auftauchen", so der Experte.

Loading...
00:00 / 00:00
play_arrow
close
expand_more
Loading...
replay_10
skip_previous
play_arrow
skip_next
forward_10
00:00
00:00
1.0x Geschwindigkeit
explore
Neue "Stories" entdecken
Beta
Loading
Kommentare

Da dieser Artikel älter als 18 Monate ist, ist zum jetzigen Zeitpunkt kein Kommentieren mehr möglich.

Wir laden Sie ein, bei einer aktuelleren themenrelevanten Story mitzudiskutieren: Themenübersicht.

Bei Fragen können Sie sich gern an das Community-Team per Mail an forum@krone.at wenden.



Kostenlose Spiele