Willkommen
|
Facebook Twitter Google Plus
04.12.2016 - 22:28
Foto: APA/2012 TRUSTEES OF TUFTS COLLEGE/KELVIN MA

Experte fordert "moralischen Kompass" für Roboter

27.08.2015, 10:54
Nicht mehr lange und autonome Roboter könnten wie selbstverständlich auf öffentlichen Straßen umherkreuzen oder in Pflegeheimen ihren Dienst verrichten. Je selbstständiger die Maschinen agieren, desto besser müssten sie jedoch mit einer Art moralischem Kompass für Konfliktsituationen ausgestattet sein, fordert der aus Österreich stammende Computerwissenschaftler Matthias Scheutz (Bild) von der Tufts University in den USA.

"Wenn wir mit autonomen Maschinen, vor allem sozialen Robotern, zusammenarbeiten und wohnen werden, dann müssen sich diese Maschinen auf uns und unser normatives Verhalten einstellen können", so der Professor für Kognitions- und Computerwissenschaft  an der Tufts University bei Boston im US- Bundesstaat Massachusetts. "Wenn das nicht der Fall ist, befürchte ich, dass wir Probleme bekommen werden, dass uns die Maschinen verletzen könnten, emotional oder physisch."

Das Team um Scheutz - von Logikern, Philosophen, Psychologen bis Rechtsexperten - erforscht zum einen Möglichkeiten, wie man mit Robotern in natürlicher Sprache kommunizieren, und zum anderen, wie man ihr Verhalten mit "moralischen Algorithmen" stets berechenbar machen kann. Das sei schon deshalb ein kompliziertes Unterfangen, weil es jeden Aspekt der Kontrollarchitektur betreffe. Ein zentrales zu lösendes Problem seien moralische Dilemma- Situationen, bei denen ein rein logisches Vorgehen im Widerspruch enden würde.

Unvorhersehbare Geschehnisse in der "offenen" Welt

Während in einer geschlossenen Umgebung wie einer Fabrikhalle die Handlungsoptionen und der Aktionsradius eines Roboters ziemlich eindeutig definiert werden können, sind die Geschehnisse in der "offenen" Welt schlicht nicht vorhersehbar. Wie also soll sich zum Beispiel ein Roboter verhalten, der bei einer Katastrophe dringend benötigte Medikamente von A nach B bringen soll, unterwegs aber einen schwer verletzten Menschen vorfindet, den es zu versorgen gilt?

"Wenn etwas passiert und der Roboter keine Verbindung mit einem menschlichen Supervisor hat, dann muss er trotzdem irgendeine Lösung finden, wie er mit der Situation umgeht", erklärt Scheutz. Ähnlich wie Menschen sollten Roboter in der Lage sein, eine Situation an Ort und Stelle zu bewerten und anhand von allgemeinen Prinzipien eine Entscheidung zu treffen - und sie anschließend rechtfertigen können: "Wenn er gefragt wird, warum er so gehandelt hat, muss er sagen können, warum."

Allgemeine ethische Grundlagen

Angesichts durchaus unterschiedlicher Vorstellungen von Moral sei es aber nicht Aufgabe der Forscher, das ethische System vorzuschreiben, sondern die technischen Rahmenbedingungen zu schaffen. Einer der vielen Ausgangspunkte, von denen aus man sich an einen moralisch kompetenten Roboter annähere, seien deshalb ganz allgemeine Rechtsgrundlagen, etwa, dass man Menschen nicht angreifen oder herumschubsen darf. Mithilfe von sozialpsychologischen Experimenten beobachten die Forscher zunächst, wie Menschen auf Roboter reagieren und mit ihnen interagieren, beispielsweise welche Auswirkungen das Erscheinungsbild der Maschine auf die Einstellungen von Versuchspersonen hat.

Erst vor kurzem haben die Forscher etwa herausgefunden, dass in dilemmaartigen Szenarien Menschen und Roboter unterschiedlich bewertet werden. In einer Situation, in der ein Mensch entweder fünf Personen retten kann, indem er eine Person "opfert", oder nichts macht und daraufhin alle fünf sterben, hätten die Versuchspersonen den "inaktiven" Menschen nicht zur Verantwortung gezogen. Umgekehrt wurde es als falsch angesehen, wenn der Roboter tatenlos blieb. "Das ist eine interessante Asymmetrie", so Scheutz, "es scheint, als würden wir den Roboter als jemanden ansehen, der eine Situation schnell durchdenken kann und der auch handeln soll."

27.08.2015, 10:54
AG/red
Kommentare  
Kommentare sortieren nach:
km_num_com
km_datum_formatiert_com
von km_nickname_text_com  
km_text_com
km_kmcom_js_begin_com kmcom_add_trigger("readcomplete","kmcom_set_notify_status(Object({'object_id':km_object_id_com}))"); km_kmcom_js_end_com
km_kmcom_js_begin_com kmcom_add_trigger("readcomplete","kmcom_set_delete_status(Object({'object_id':km_object_id_com, 'status':km_status_com}))"); km_kmcom_js_end_com
Antworten sortieren nach:
km_antworten_com
km_datum_formatiert_com
von km_nickname_text_com  
km_text_com
km_kmcom_js_begin_com kmcom_add_trigger("readcomplete","kmcom_set_notify_status(Object({'object_id':km_object_id_com}))"); km_kmcom_js_end_com
km_kmcom_js_begin_com kmcom_add_trigger("readcomplete","kmcom_set_delete_status(Object({'object_id':km_object_id_com, 'status':km_status_com}))"); km_kmcom_js_end_com
User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB).
Werbung
Jetzt online spielen!
Werbung
Angaben gem ECG und MedienGesetz: Medieninhaber, Hersteller und Herausgeber bzw. Diensteanbieter
Krone Multimedia GmbH & Co KG (FBN 189730s; HG Wien) Internetdienste; Muthgasse 2, 1190 Wien
Krone Multimedia © 2016 krone.at | Impressum