Vergangenes Jahr sorgte Google-Ingenieur Blake Lemoine für Schlagzeilen: Er wurde gefeuert, nachdem er Medien gegenüber erklärte, dass er glaube, die Künstliche Intelligenz (KI) „Lamda“ habe ein Bewusstsein entwickelt und sei empfindungsfähig. Damals noch belächelt, haben sich KI-Systeme seither im Eiltempo weiterentwickelt, vor allem ChatGPT ist seit Monaten in aller Munde. Und damit auch die Frage, die Lemoine aufgeworfen hat: Wie erkennen wir, wenn eine KI ein Bewusstsein entwickelt?
Empfindsames Wesen oder „Wahrscheinlichkeits-Papagei“? Prinzipiell handelt es sich bei Chatbots und Sprach-KI wie Googles Lamda oder ChatGPT um rein auf Basis statistischer Wahrscheinlichkeit operierende Systeme. Sie werden mit riesigen Mengen an Text gefüttert, werten diese aus und erzeugen dann, je nach Anfrage, die statistisch wahrscheinlichste Wortfolge, die auf die Anfrage folgen muss. Dabei entstehen stilistisch erstaunlich hochwertige und oft durchaus sinnvolle Textgebilde, mitunter werden aber auch haarsträubende Fehlinformationen im Ton der Überzeugung vorgetragen. Wie aber erkennen wir, ob die KI ihrer Programmierung folgt - oder mehr als das tut?
Kommentare
Da dieser Artikel älter als 18 Monate ist, ist zum jetzigen Zeitpunkt kein Kommentieren mehr möglich.
Wir laden Sie ein, bei einer aktuelleren themenrelevanten Story mitzudiskutieren: Themenübersicht.
Bei Fragen können Sie sich gern an das Community-Team per Mail an forum@krone.at wenden.