Sa, 22. September 2018

Kommt "Skynet"?

18.01.2015 08:30

IT-Experten warnen vor künstlicher Intelligenz

Die Erforschung künstlicher Intelligenz (KI), die selbstfahrende Autos, digitale Assistenten, autonome Drohnen und viele andere futuristische Dinge ermöglicht, schreitet rasant voran. Eine Vielzahl namhafter Forscher warnt nun allerdings in einem offenen Brief vor den Gefahren, die von intelligenten Maschinen ausgehen können.

Was passiert, wenn eine mächtige künstliche Intelligenz die Kontrolle übernimmt und die Maschinen rebellieren, weiß jeder, der schon einmal den Action-Hit "Terminator" gesehen hat. Geht es nach den Wissenschaftlern, die jetzt vor den Gefahren durch KI warnen, muss es aber nicht gleich "Skynet" sein. Selbstfahrende Autos oder autonome Waffensysteme könnten schon in naher Zukunft zur Gefahr werden, berichtet "Heise".

Was, wenn KI über Leben und Tod entscheidet?
Der Vormarsch intelligenter Maschinen führe zu einer Vielzahl von ethischen Problemen, so die Befürchtung der Unterzeichner. Bei selbstfahrenden Autos gebe es beispielsweise die Herausforderung für KI-Programmierer, das Auto in einer unvermeidlichen Unfallsituation zur richtigen Verhaltensweise zu "erziehen".

Droht eine Kollision, bei der entweder ein älterer Mensch oder ein Kind überfahren wird, muss die Software des Autos in Sekundenbruchteilen entscheiden, in welche Richtung das Fahrzeug lenkt. Droht ein Unfall, bei dem zwischen Personen- und Sachschaden zu entscheiden ist, muss das Auto ebenfalls eine Entscheidung treffen. Das führt zu neuen ethischen Problemen bei der Entwicklung autonomer Systeme.

Kennen autonome Waffen Menschenrechte?
Aber nicht nur im Automobilbereich sehen die Unterzeichner des Briefes – unter ihnen Größen der Wissenschaft und Technik wie Tesla-Chef Elon Musk und der Physiker Stephen Hawking – Gefahren. Was, wenn wir autonome Waffensysteme wie Drohnen entwickeln und der KI-Programmierer vergisst, sie die Menschenrechte achten zu lassen?

Diese und ähnliche Fragen sollten Wissenschaftler, die an KI arbeiten, stets im Hinterkopf behalten, heißt es in dem offenen Brief des "Future of Life"-Institus. Denn nur, wenn alle Eventualitäten berücksichtigt würden und die Schöpfer der autonomen Geräte der Zukunft sich ihrer Verantwortung bewusst seien, könnten böse Überraschungen vermieden werden.

Das könnte Sie auch interessieren

Kommentare

Eingeloggt als 
Nicht der richtige User? Logout

Willkommen in unserer Community! Eingehende Beiträge werden geprüft und anschließend veröffentlicht. Bitte achten Sie auf Einhaltung unserer Netiquette und AGB. Für ausführliche Diskussionen steht Ihnen ebenso das krone.at-Forum zur Verfügung.

User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB).

Newsletter

Melden Sie sich hier mit Ihrer E-Mail-Adresse an, um täglich den "Krone"-Newsletter zu erhalten.