Mi, 18. Juli 2018

Physiker Tegmark

16.11.2017 17:00

Schlaue Maschinen: "Wir müssen uns vorbereiten"

Schlaue Maschinen, die Berge juristischer Dokumente scannen, Testreihen zur Krebsforschung fahren - oder Killer-Waffen sind? Künstliche Intelligenz kann vieles bedeuten. Höchste Zeit, sich Gedanken über Sicherheit und Ziele zu machen, sagt Max Tegmark, Physik-Professor am Massachusetts Institute of Technology in Cambridge.

2015 beschrieb Tegmark in "Das mathematische Universum" seine Multiversum-Theorie. Seit einigen Jahren befasst er sich auch mit Künstlicher Intelligenz und hat dazu das "Future of Life Institute" mitgegründet, in dessen Beirat auch der Astrophysiker Stephen Hawkings sitzt. Tegmarks neues Buch "Leben 3.0: Mensch sein im Zeitalter Künstlicher Intelligenz" erscheint diesen Freitag. Darin sieht er für das Zusammenleben von Mensch und KI ungeahnte Möglichkeiten voraus. Allerdings nur, wenn die Menschen die Weichen rechtzeitig stellen, wie der streitbare Forscher und Wissenschaftsphilosoph im dpa-Interview betont.

Herr Tegmark, schauen Sie Science-Fiction-Filme?
Mit meiner Frau war ich vor kurzem in "Blade Runner 2049". Wieder so eine Hollywood-Dystopie mit schießenden Robotern. KI wird da in der Regel mit irgendeiner Form von Katastrophe verknüpft. Dabei kann das Ganze riesige Vorteile bringen, wenn wir es richtig hinbekommen. Ich bin da optimistisch, aber ich bin kein naiver Optimist.

Viele Menschen sind etwas verunsichert und auch KI-Experten senden gemischte Botschaften aus...
Ja, manche sagen, es lohnt sich nicht, darüber zu reden, weil es frühestens in 100 Jahren passieren werde. Aber die meisten Experten sind sich einig, dass es in den nächsten paar Jahrzehnten so weit sein wird. Also sollten wir jetzt anfangen, uns möglichst gut vorzubereiten. Und das nicht, indem wir nur Science-Fiction-Filme gucken. Wir müssen das Rennen gewinnen zwischen der wachsenden Macht der Künstlichen Intelligenz und unserem wachsenden Wissen, KI zu managen. Und wir sollten dabei nicht versuchen, erst aus Fehlern zu lernen - das könnte fatal enden.

Wie intelligent kann KI werden?
Ich denke, die meisten Menschen halten übermenschliche KI für Science-Fiction. Sie glauben, ihre eigene Intelligenz ist etwas Mysteriöses, das nur in biologischen Organismen, vor allem Menschen, existiert. Aber aus meiner Sicht ist Intelligenz nur eine bestimmte Art der Informationsverarbeitung. Und es gibt kein physikalisches Gesetz, das besagt, dass diese Verarbeitung nicht noch besser laufen kann als in Gehirnen.

Was sind die wichtigsten Punkte für die nähere Zukunft?
Zunächst müssen wir unsere Computer deutlich robuster machen, damit sie nicht gehackt werden. Denken Sie an Stromnetze, Kraftwerke oder Ihr selbstfliegendes Flugzeug. Aber wir müssen auch über unsere Werte nachdenken und unsere Ziele exakt definieren - und der KI beibringen, diese Ziele zu adaptieren und auch dann beizubehalten, wenn sie selbst immer schlauer wird.

Verbrechen und Kriegsführung, Medizin, Justiz, Jobs - all das kann von Künstlicher Intelligenz beeinflusst werden. Wo liegen Chancen, wo Risiken?
Schon heute gibt es ja Roboter, die präziser operieren als Menschen. Und selbstlernende Systeme können die Medizin und andere Technologien immer schneller verbessern. Für Jobs heißt KI generell: Wir müssen unseren Kindern das Richtige raten. Sie sollten Berufe wählen, die mit Kreativität, Improvisation und Menschen zu tun haben. Längerfristig brauchen wir aber Lösungen, wie Menschen auch ohne Arbeit Ziel und Sinn in ihrem Leben finden. Vielleicht ist ein allgemeines Grundeinkommen eine Lösung. Vielleicht kostenlose Infrastruktur. Hier sollten Regierungen jetzt schon regionale Versuche starten.

Wie steht es um die Risiken durch KI-Waffen?
Es gibt Anzeichen dafür, dass ein KI-Aufrüsten bereits beginnt. Deshalb gibt es in diesen Tagen ein UN-Treffen in Genf, um tödliche autonome Waffen mit einer internationalen Konvention zu bannen. So ähnlich, wie Chemiker und Biologen sich gegen chemische und biologische Waffen eingesetzt haben, wollen auch viele KI-Experten autonome Waffen verhindern. Derzeit werden weltweit Milliarden investiert, um KI immer stärker zu machen. In die Sicherheitsforschung fließt aber so gut wie gar nichts. Die ersten zehn Millionen US-Dollar hat jetzt Elon Musk gespendet. Davon vergibt unser "Future of Life Institute" weltweit Stipendien, um KI sicherer zu machen. Da gibt es noch viele harte Nüsse zu knacken, wir müssen jetzt damit anfangen.

 krone.at
krone.at

Das könnte Sie auch interessieren

Kommentar schreiben

Sie haben einen themenrelevanten Kommentar? Dann schreiben Sie hier Ihr Storyposting! Sie möchten mit anderen Usern Meinungen austauschen oder länger über ein Thema oder eine Story diskutieren? Dafür steht Ihnen jederzeit unser krone.at-Forum, eines der größten Internetforen Österreichs, zur Verfügung. Sowohl im Forum als auch bei Storypostings bitten wir Sie, unsere AGB und die Netiquette einzuhalten!
Diese Kommentarfunktion wird prä-moderiert. Eingehende Beiträge werden zunächst geprüft und anschließend veröffentlicht.

Kommentar schreiben
500 Zeichen frei
Kommentare
324

User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB).

Aktuelle Schlagzeilen

Newsletter

Melden Sie sich hier mit Ihrer E-Mail-Adresse an, um täglich den "Krone"-Newsletter zu erhalten.