Vergangenes Jahr sorgte Google-Ingenieur Blake Lemoine für Schlagzeilen: Er wurde gefeuert, nachdem er Medien gegenüber erklärte, dass er glaube, die Künstliche Intelligenz (KI) „Lamda“ habe ein Bewusstsein entwickelt und sei empfindungsfähig. Damals noch belächelt, haben sich KI-Systeme seither im Eiltempo weiterentwickelt, vor allem ChatGPT ist seit Monaten in aller Munde. Und damit auch die Frage, die Lemoine aufgeworfen hat: Wie erkennen wir, wenn eine KI ein Bewusstsein entwickelt?
Empfindsames Wesen oder „Wahrscheinlichkeits-Papagei“? Prinzipiell handelt es sich bei Chatbots und Sprach-KI wie Googles Lamda oder ChatGPT um rein auf Basis statistischer Wahrscheinlichkeit operierende Systeme. Sie werden mit riesigen Mengen an Text gefüttert, werten diese aus und erzeugen dann, je nach Anfrage, die statistisch wahrscheinlichste Wortfolge, die auf die Anfrage folgen muss. Dabei entstehen stilistisch erstaunlich hochwertige und oft durchaus sinnvolle Textgebilde, mitunter werden aber auch haarsträubende Fehlinformationen im Ton der Überzeugung vorgetragen. Wie aber erkennen wir, ob die KI ihrer Programmierung folgt - oder mehr als das tut?
Kommentare
Willkommen in unserer Community! Eingehende Beiträge werden geprüft und anschließend veröffentlicht. Bitte achten Sie auf Einhaltung unserer Netiquette und AGB. Für ausführliche Diskussionen steht Ihnen ebenso das krone.at-Forum zur Verfügung.
User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB).