Informatiker warnen:

„Superintelligente Maschinen nicht kontrollierbar“

Web
14.01.2021 09:27

Bislang haben sie uns nur in Schach, Go oder Jeopardy besiegt, doch Wissenschaftler und Philosophen befürchten, dass künstliche Intelligenzen eines Tages außer Kontrolle geraten und über den Menschen herrschen könnten. Internationale Forscher sind nun der Frage nachgegangen, ob sich eine derartige Superintelligenz überhaupt kontrollieren ließe. Ihre Antwort: nein.

„Eine superintelligente Maschine, die die Welt kontrolliert, klingt nach Science-Fiction. Doch schon heute gibt es Maschinen, die bestimmte wichtige Aufgaben selbständig erledigen, ohne dass Programmier komplett verstehen, wie sie das gelernt haben. Daher stellt sich für uns die Frage, ob das für die Menschheit irgendwann unkontrollierbar und gefährlich werden könnte“, erläutert Manuel Cebrian, Leiter der Forschungsgruppe „Digitale Mobilisierung“ am Forschungsbereich Mensch und Maschine am Max-Planck-Institut für Bildungsforschung und Co-Autor der Studie „Superintelligence Cannot be Contained: Lessons from Computability Theory“.

Einer Mitteilung des Instituts zufolge haben Wissenschaftler weltweit bislang zwei Ideen entwickelt, wie eine superintelligente KI kontrolliert werden könnte. Demnach könnte man zum einen die Ressourcen der superintelligenten KI gezielt einschränken, indem man sie beispielsweise vom Internet und allen anderen technischen Geräten abschottet, sodass sie keinen Kontakt zur Außenwelt hat. Die Fähigkeiten der Super-KI würden dadurch allerdings deutlich geringer sein, sodass sie die großen Menschheitsprobleme nicht lösen könnte.

Die andere Option wäre, die KI von vornherein zu motivieren, nur Ziele zu verfolgen, die im Interesse der Menschheit liegen, zum Beispiel indem man ihr ethische Regeln einprogrammiert. Doch zeigen die Forscher, dass diese und andere historische oder aktuelle Ideen, die superintelligente KI zu kontrollieren, ihre Grenzen haben.

Super-KI laut Berechnungen nicht kontrollierbar
Für ihre Studie konzipierten sie einen theoretischen Algorithmus, der sicherstellt, dass eine superintelligente KI unter keinen Umständen der Menschheit schadet. Dieser Algorithmus simuliert zunächst das Verhalten der KI und stoppt sie, wenn er es als schädlich erachtet. Eine genaue Analyse dieses Algorithmus zeige jedoch, dass nach aktuellem Stand der Computerwissenschaften ein solcher Algorithmus nicht programmiert werden könne, so das Fazit.

„Bricht man das Problem auf einfache Grundregeln aus der theoretischen Informatik herunter, zeigt sich, dass ein Algorithmus, der einer KI befehlen würde, die Welt nicht zu zerstören, sich womöglich aufhängen würde. Man wüsste dann nicht, ob der Algorithmus die Bedrohung noch analysiert oder ob er aufgehört hat, die schädliche KI einzudämmen. Das macht diesen Algorithmus praktisch unbrauchbar“, sagt Iyad Rahwan, Direktor des Forschungsbereichs Mensch und Maschine.

Auf Basis dieser Berechnungen sei es somit nicht möglich, einen Algorithmus zu programmieren, der erkennt, ob eine KI der Welt Schaden zufügen würde oder nicht. „Dazu kommt, dass wir möglicherweise nicht einmal erkennen könnten, ob eine Maschine superintelligent ist“, halten die Forscher weiter fest. Denn, ob eine Maschine eine dem Menschen überlegene Intelligenz besitze, lasse sich nach aktuellen Erkenntnissen ebenfalls nicht berechnen.

 krone.at
krone.at
Loading...
00:00 / 00:00
play_arrow
close
expand_more
Loading...
replay_10
skip_previous
play_arrow
skip_next
forward_10
00:00
00:00
1.0x Geschwindigkeit
explore
Neue "Stories" entdecken
Beta
Loading
Kommentare

Da dieser Artikel älter als 18 Monate ist, ist zum jetzigen Zeitpunkt kein Kommentieren mehr möglich.

Wir laden Sie ein, bei einer aktuelleren themenrelevanten Story mitzudiskutieren: Themenübersicht.

Bei Fragen können Sie sich gern an das Community-Team per Mail an forum@krone.at wenden.



Kostenlose Spiele