Der ChatGPT-Entwickler OpenAI hat mit ChatGPT Agent ein neues Produkt vorgestellt, das eigenständig „bemerkenswert komplexe Aufgaben“ erledigen können soll. Firmenchef Sam Altman rät bei dessen Nutzung jedoch zur Vorsicht.
ChatGPT Agent stellt einem Altman-Posting auf X zufolge eine „neue Stufe der Leistungsfähigkeit von KI-Systemen“ dar. Die Anwendung könne „lange denken, einige Tools verwenden, noch mehr denken, einige Aktionen ausführen, noch mehr denken, usw.“ Erprobt habe man diese Talente bei der Vorbereitung der Hochzeit eines Freundes. Der KI-Agent kümmerte sich demnach um den Kauf eines passenden Outfits, buchte eine Reise und wählte ein Geschenk aus. Doch: „So groß der Nutzen ist, so groß sind auch die potenziellen Risiken“, schreibt Altman.
Zwar habe man „viele Sicherheitsvorkehrungen und Warnungen eingebaut“ und „umfassendere Abhilfemaßnahmen als je zuvor entwickelt, angefangen von einer soliden Schulung über Systemschutzmaßnahmen bis hin zu Benutzerkontrollen“, aber man könne „nicht alles vorhersehen“, führt der OpenAI-CEO aus und rät daher zur Vorsicht bei der Nutzung.
„Chance, die Zukunft auszuprobieren“
Der ChatGPT Agent sei „eine Chance, die Zukunft auszuprobieren“, aber nicht etwas, das er für wichtige Anwendungen oder mit vielen persönlichen Daten verwenden würde, „bis wir die Möglichkeit haben, es in freier Wildbahn zu untersuchen und zu verbessern“, so Altman. Denn bösartige Akteure könnten versuchen, den KI-Agenten auf unvorhersehbare Weise dazu zu bringen, „private Informationen preiszugeben, die sie nicht preisgeben sollten, und Aktionen durchzuführen, die sie nicht durchführen sollten.“
„Ich kann einem Agenten beispielsweise Zugriff auf meinen Kalender geben, um einen Termin für ein gemeinsames Abendessen zu finden. Aber ich brauche ihm keinen Zugriff zu gewähren, wenn ich ihn nur bitte, mir Kleidung zu kaufen“, erläutert Altmann. Ein größeres Risiko bestehe bei Aufgaben wie „Sieh dir meine E-Mails an, die über Nacht eingegangen sind, und tu, was immer du tun musst, um sie zu beantworten, stell aber keine Folgefragen“. Altmann: „Dies könnte dazu führen, dass nicht vertrauenswürdige Inhalte aus einer bösartigen E-Mail das Modell dazu verleiten, Ihre Daten weiterzugeben.“
Aus Erfahrungen lernen
Warum die Anwendung dann überhaupt bereits veröffentlicht wurde? Altman ist laut eigenen Angaben der Meinung, „dass es wichtig ist, aus dem Kontakt mit der Realität zu lernen, und dass die Menschen diese Werkzeuge vorsichtig und langsam annehmen, während wir die potenziellen Risiken besser quantifizieren und entschärfen.“ Wie bei anderen neuen Fähigkeiten müssten sich die Gesellschaft, die Technologie und die Strategie zur Risikominderung gemeinsam weiterentwickeln, so der OpenAI-Chef.
Kommentare
Willkommen in unserer Community! Eingehende Beiträge werden geprüft und anschließend veröffentlicht. Bitte achten Sie auf Einhaltung unserer Netiquette und AGB. Für ausführliche Diskussionen steht Ihnen ebenso das krone.at-Forum zur Verfügung. Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.
User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB). Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.