Geoffrey Hinton, führender Entwickler von Künstlicher Intelligenz (KI) beim US-Konzern Google und Turing-Preisträger, hat seinen Job gekündigt und warnt nun vor einer unkontrollierbaren Entwicklung besonders fortgeschrittener KI. Die Fortschritte im Feld der KI bedeuteten „ernste Risiken für die Gesellschaft und für die Menschheit“, warnte Hinton in der „New York Times“ vor allem vor der Verbreitung von Falschinformationen und der Gefahr für Arbeitsplätze.
Hinton sagte der Zeitung, der Wettbewerb bringe die Technologieunternehmen dazu, „in einem gefährlichen Tempo“ immer neue KI zu entwickeln. „Es ist schwierig sich vorzustellen, wie man die Bösen daran hindert, KI für böse Dinge einzusetzen“, sagte er. Google und das Unternehmen OpenAI - das Startup, das den bekannten Chatbot ChatGPT entwickelt hat - begannen im vergangenen Jahr damit, lernende Systeme zu entwickeln, die dafür eine sehr viel größere Datenmenge als zuvor nutzen. Hinton sagte der „New York Times“, diese Systeme würden aufgrund der schieren Datenmenge die menschliche Intelligenz in mancher Hinsicht in den Schatten stellen.
Mit Blick auf die Arbeitsplätze sagte Hinton etwa, Künstliche Intelligenz könne die „Sklavenarbeit“ überflüssig machen. „Aber sie könnte noch viel mehr wegnehmen.“
Google-Job an den Nagel gehängt
Der Zeitung zufolge kündigte der Entwickler seinen Job bei Google im vergangenen Monat. Sein Chef im Unternehmen, Jeff Dean, erklärte in einer Mitteilung an US-Medien, er danke Hinton für seine Arbeit. Dean betonte, Google habe als eines der ersten Unternehmen Leitsätze für die KI-Anwendung veröffentlicht. Google fühle sich auch weiterhin „zu einem verantwortungsvollen Umgang mit KI verpflichtet“. Google lerne beim Verständnis der Risiken beständig dazu - und führe gleichzeitig weiterhin „kühn“ Neuerungen ein.
Erst Ende März hatten der Technologie-Milliardär Elon Musk und zahlreiche Experten eine Pause bei der Entwicklung von besonders fortgeschrittener Künstlicher Intelligenz gefordert. „KI-Systeme mit einer Intelligenz, die Menschen Konkurrenz macht, können große Risiken für Gesellschaft und Menschheit bergen“, warnten auch sie. „Mächtige KI-Systeme sollten erst dann entwickelt werden, wenn wir zuversichtlich sind, dass ihre Auswirkungen positiv und ihre Risiken kontrollierbar sind.“
In einem offenen Brief zu einem Stopp der KI-Entwicklung verwiesen die Unterzeichner auf einen Satz von OpenAI-Gründer Sam Altman, demzufolge irgendwann eine „unabhängige“ Überprüfung notwendig sei, bevor mit dem Training neuer Systeme begonnen werde. „Wir stimmen zu“, schreiben die Verfasser des Briefes. „Der Zeitpunkt ist jetzt.“








Kommentare
Liebe Leserin, lieber Leser,
die Kommentarfunktion steht Ihnen ab 6 Uhr wieder wie gewohnt zur Verfügung.
Mit freundlichen Grüßen
das krone.at-Team
User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB).