Physiker Tegmark

Schlaue Maschinen: “Wir müssen uns vorbereiten”

Web
16.11.2017 17:00

Schlaue Maschinen, die Berge juristischer Dokumente scannen, Testreihen zur Krebsforschung fahren - oder Killer-Waffen sind? Künstliche Intelligenz kann vieles bedeuten. Höchste Zeit, sich Gedanken über Sicherheit und Ziele zu machen, sagt Max Tegmark, Physik-Professor am Massachusetts Institute of Technology in Cambridge.

2015 beschrieb Tegmark in "Das mathematische Universum" seine Multiversum-Theorie. Seit einigen Jahren befasst er sich auch mit Künstlicher Intelligenz und hat dazu das "Future of Life Institute" mitgegründet, in dessen Beirat auch der Astrophysiker Stephen Hawkings sitzt. Tegmarks neues Buch "Leben 3.0: Mensch sein im Zeitalter Künstlicher Intelligenz" erscheint diesen Freitag. Darin sieht er für das Zusammenleben von Mensch und KI ungeahnte Möglichkeiten voraus. Allerdings nur, wenn die Menschen die Weichen rechtzeitig stellen, wie der streitbare Forscher und Wissenschaftsphilosoph im dpa-Interview betont.

Herr Tegmark, schauen Sie Science-Fiction-Filme?
Mit meiner Frau war ich vor kurzem in "Blade Runner 2049". Wieder so eine Hollywood-Dystopie mit schießenden Robotern. KI wird da in der Regel mit irgendeiner Form von Katastrophe verknüpft. Dabei kann das Ganze riesige Vorteile bringen, wenn wir es richtig hinbekommen. Ich bin da optimistisch, aber ich bin kein naiver Optimist.

Viele Menschen sind etwas verunsichert und auch KI-Experten senden gemischte Botschaften aus...
Ja, manche sagen, es lohnt sich nicht, darüber zu reden, weil es frühestens in 100 Jahren passieren werde. Aber die meisten Experten sind sich einig, dass es in den nächsten paar Jahrzehnten so weit sein wird. Also sollten wir jetzt anfangen, uns möglichst gut vorzubereiten. Und das nicht, indem wir nur Science-Fiction-Filme gucken. Wir müssen das Rennen gewinnen zwischen der wachsenden Macht der Künstlichen Intelligenz und unserem wachsenden Wissen, KI zu managen. Und wir sollten dabei nicht versuchen, erst aus Fehlern zu lernen - das könnte fatal enden.

Wie intelligent kann KI werden?
Ich denke, die meisten Menschen halten übermenschliche KI für Science-Fiction. Sie glauben, ihre eigene Intelligenz ist etwas Mysteriöses, das nur in biologischen Organismen, vor allem Menschen, existiert. Aber aus meiner Sicht ist Intelligenz nur eine bestimmte Art der Informationsverarbeitung. Und es gibt kein physikalisches Gesetz, das besagt, dass diese Verarbeitung nicht noch besser laufen kann als in Gehirnen.

Was sind die wichtigsten Punkte für die nähere Zukunft?
Zunächst müssen wir unsere Computer deutlich robuster machen, damit sie nicht gehackt werden. Denken Sie an Stromnetze, Kraftwerke oder Ihr selbstfliegendes Flugzeug. Aber wir müssen auch über unsere Werte nachdenken und unsere Ziele exakt definieren - und der KI beibringen, diese Ziele zu adaptieren und auch dann beizubehalten, wenn sie selbst immer schlauer wird.

Verbrechen und Kriegsführung, Medizin, Justiz, Jobs - all das kann von Künstlicher Intelligenz beeinflusst werden. Wo liegen Chancen, wo Risiken?
Schon heute gibt es ja Roboter, die präziser operieren als Menschen. Und selbstlernende Systeme können die Medizin und andere Technologien immer schneller verbessern. Für Jobs heißt KI generell: Wir müssen unseren Kindern das Richtige raten. Sie sollten Berufe wählen, die mit Kreativität, Improvisation und Menschen zu tun haben. Längerfristig brauchen wir aber Lösungen, wie Menschen auch ohne Arbeit Ziel und Sinn in ihrem Leben finden. Vielleicht ist ein allgemeines Grundeinkommen eine Lösung. Vielleicht kostenlose Infrastruktur. Hier sollten Regierungen jetzt schon regionale Versuche starten.

Wie steht es um die Risiken durch KI-Waffen?
Es gibt Anzeichen dafür, dass ein KI-Aufrüsten bereits beginnt. Deshalb gibt es in diesen Tagen ein UN-Treffen in Genf, um tödliche autonome Waffen mit einer internationalen Konvention zu bannen. So ähnlich, wie Chemiker und Biologen sich gegen chemische und biologische Waffen eingesetzt haben, wollen auch viele KI-Experten autonome Waffen verhindern. Derzeit werden weltweit Milliarden investiert, um KI immer stärker zu machen. In die Sicherheitsforschung fließt aber so gut wie gar nichts. Die ersten zehn Millionen US-Dollar hat jetzt Elon Musk gespendet. Davon vergibt unser "Future of Life Institute" weltweit Stipendien, um KI sicherer zu machen. Da gibt es noch viele harte Nüsse zu knacken, wir müssen jetzt damit anfangen.

 krone.at
krone.at
Loading...
00:00 / 00:00
play_arrow
close
expand_more
Loading...
replay_10
skip_previous
play_arrow
skip_next
forward_10
00:00
00:00
1.0x Geschwindigkeit
explore
Neue "Stories" entdecken
Beta
Loading
Kommentare

Da dieser Artikel älter als 18 Monate ist, ist zum jetzigen Zeitpunkt kein Kommentieren mehr möglich.

Wir laden Sie ein, bei einer aktuelleren themenrelevanten Story mitzudiskutieren: Themenübersicht.

Bei Fragen können Sie sich gern an das Community-Team per Mail an forum@krone.at wenden.



Kostenlose Spiele