Experten warnen:

„Könnten Kontrolle über KI-Systeme verlieren“

Web
22.05.2024 10:03

Von angesehenen Experten für Künstliche Intelligenz kommt eine neue eindringliche Warnung vor Gefahren der Technologie. „Ohne ausreichende Vorsicht könnten wir unwiederbringlich die Kontrolle über autonome KI-Systeme verlieren“, schreiben die Forscher und verweise auf mögliche Risiken wie Cyberattacken in großem Maßstab, gesellschaftliche Manipulation, allgegenwärtige Überwachung und sogar die „Auslöschung der Menschheit“.

Unter den Autoren des in der Zeitschrift „Science“ veröffentlichten Texts sind Wissenschafter wie Geoffrey Hinton, Andrew Yao und Dawn Song, die zu den führenden Köpfen der KI-Forschung gehören. Ihnen machen speziell autonome KI-Systeme Sorgen, die zum Beispiel selbstständig Computer nutzen können, um die ihnen gestellten Ziele zu erreichen.

„Unvorhergesehene Nebeneffekte“
Die Fachleute argumentieren, dass es auch bei Programmen mit guten Absichten unvorhergesehene Nebeneffekte geben könne. Denn so, wie das Training von KI-Software laufe, halte sie sich zwar eng an ihre Spezifikationen – habe aber kein Verständnis dafür, welches Ergebnis dabei herauskommen soll. „Sobald autonome KI-Systeme unerwünschte Ziele verfolgen, könnten wir nicht mehr in der Lage sein, sie unter Kontrolle zu behalten“, heißt es in dem Text.

Ähnlich dramatische Warnungen gab es schon mehrfach, auch bereits im vergangenen Jahr. Diesmal passt die Veröffentlichung zeitlich zum KI-Gipfel in Seoul. Zum Auftakt des zweitägigen Treffens am Dienstag sicherten unter anderem US-Konzerne wie Google, Meta und Microsoft einen verantwortungsvollen Umgang mit der Technologie zu.

Mehr Schein als Sicherheit
Die Frage, ob die ChatGPT-Entwicklerfirma OpenAI als Vorreiter bei KI-Technologie verantwortungsvoll genug vorgeht, war am Wochenende noch einmal stärker in den Fokus gerückt. Der Entwickler Jan Leike, der bei OpenAI dafür zuständig war, KI-Software sicher für Menschen zu machen, kritisierte nach seinem Rücktritt Gegenwind aus der Chefetage.

In den vergangenen Jahren seien „glitzernde Produkte“ der Sicherheit vorgezogen worden, schrieb Leike bei X. Dabei sei „Software zu entwickeln, die schlauer als Menschen ist, eine von Natur aus gefährliche Unternehmung“, warnte er. Man müsse dringend herausfinden, wie man KI-Systeme kontrollieren könne, „die viel smarter als wir sind“.

KI noch zu dumm?
OpenAI-Chef Sam Altman versicherte danach, seine Firma fühle sich verpflichtet, mehr für die Sicherheit von KI-Software zu tun. Der KI-Forschungschef des Facebook-Konzerns Meta, Yann LeCun, konterte dagegen, für solche Dringlichkeit müssten sich zunächst auch nur andeutungsweise Systeme abzeichnen, „die schlauer als eine Hauskatze sind“.

Momentan sei es so, als würde jemand im Jahr 1925 warnen, man müsse dringend den Umgang mit Flugzeugen lernen, die Hunderte Passagiere mit Schallgeschwindigkeit über den Ozean befördern. Es werde viele Jahre dauern, bis die KI-Technologie so schlau wie Menschen sein werde – und ähnlich wie bei Flugzeugen würden die Sicherheitsvorkehrungen damit schrittweise einhergehen.

 krone.at
krone.at
Loading...
00:00 / 00:00
play_arrow
close
expand_more
Loading...
replay_10
skip_previous
play_arrow
skip_next
forward_10
00:00
00:00
1.0x Geschwindigkeit
explore
Neue "Stories" entdecken
Beta
Loading
Kommentare
Eingeloggt als 
Nicht der richtige User? Logout

Willkommen in unserer Community! Eingehende Beiträge werden geprüft und anschließend veröffentlicht. Bitte achten Sie auf Einhaltung unserer Netiquette und AGB. Für ausführliche Diskussionen steht Ihnen ebenso das krone.at-Forum zur Verfügung. Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.

User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB). Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.



Kostenlose Spiele