KI kann alles, weiß alles und ist uns daher überlegen – so zumindest gemeinhin der Glaube. Dass dem bei Weitem (noch) nicht so ist, beweist ein einfaches Rätsel, an dem sämtliche ChatGPT und Co. zugrundeliegenden Sprachmodelle kläglich scheitern. Hätten Sie es besser gewusst?
Es ist ein „einfaches, kurzes, herkömmliches, allgemeinverständliches Problem“, das „von Menschen leicht gelöst werden kann“ – und doch scheitern die gängigen großen Sprachmodelle (Large Language Models, kurz LLMs), die das Fundament für auf Künstlicher Intelligenz basierende Chatbots wie ChatGPT bilden, allesamt an ihm. Und nicht nur das: Sie beharren sogar auf ihren falschen Lösungen, was einen „dramatischen Zusammenbruch“ ihrer Funktion und logischen Denkfähigkeiten demonstriert.
Da dieser Artikel älter als 18 Monate ist, ist zum jetzigen Zeitpunkt kein Kommentieren mehr möglich.
Wir laden Sie ein, bei einer aktuelleren themenrelevanten Story mitzudiskutieren: Themenübersicht.
Bei Fragen können Sie sich gern an das Community-Team per Mail an forum@krone.at wenden.