Immer mehr Privatanleger nutzen Künstliche Intelligenz (KI) zur Anlageberatung. Knapp drei Jahre nach dem Start des Chatbots ChatGPT kann jeder Aktien auswählen, beobachten und Analysen erhalten, die früher nur Großbanken oder institutionellen Investoren zur Verfügung standen. Der Boom auf dem Markt für digitale Anlageberatung birgt laut Experten jedoch Risiken und kann traditionelle Beratung noch nicht ersetzen.
Dennoch wächst der sogenannte Robo-Advisory-Markt, der alle Unternehmen umfasst, die eine automatisierte, algorithmusgesteuerte Finanzberatung anbieten, rasant. Einer Analyse der Firma Research and Markets zufolge sollen die Umsätze in diesem Sektor von 61,75 Milliarden Dollar (52,90 Milliarden Euro) im vergangenen Jahr auf 470,91 Milliarden Dollar im Jahr 2029 steigen. Das wäre ein Zuwachs von rund 600 Prozent.
Eine Umfrage des Brokers eToro unter 11.000 Privatanlegern weltweit ergab, dass etwa die Hälfte der Befragten bereit wäre, KI-Tools wie ChatGPT oder Gemini von Google für die Aktienauswahl zu nutzen. 13 Prozent tun dies demnach bereits. In Großbritannien gaben in einer Umfrage des Vergleichsunternehmens Finder sogar 40 Prozent an, Chatbots und KI für die persönliche Finanzberatung genutzt zu haben.
„KI-Modelle können brillant sein“
Ein von Finder im März 2023 gestartetes Experiment unterstreicht die Leistungsfähigkeit der Technologie. Das Unternehmen bat ChatGPT, ein Portfolio aus 38 Aktien zusammenzustellen, basierend auf Kriterien wie niedriger Verschuldung und nachhaltigem Wachstum. Dieses Portfolio, das sowohl den KI-Vorreiter Nvidia als auch Konsumgüter-Riesen wie Procter & Gamble enthält, hat bis dato fast 55 Prozent zugelegt. Damit übertrifft es die durchschnittliche Rendite der zehn beliebtesten Fonds in Großbritannien um fast 19 Prozentpunkte.
Experten warnen jedoch vor übertriebenem Vertrauen in die Technologie. „KI-Modelle können brillant sein“, sagt Dan Moczulski, Geschäftsführer des Brokers eToro in Großbritannien. „Das Risiko entsteht, wenn Menschen allgemeine Modelle wie ChatGPT oder Gemini wie eine Kristallkugel behandeln.“ Solche Modelle könnten Zahlen und Daten falsch wiedergeben oder sich zu sehr auf vergangene Kursentwicklungen stützen. Auch ChatGPT selbst warnt davor, sich bei professionellen Finanzentscheidungen auf das Programm zu verlassen.
Qualität hängt maßgeblich vom prompt ab
Ein weiteres Problem ist, dass die frei zugänglichen KI-Modelle keinen Zugriff auf Daten hinter Bezahlschranken haben, wie sie etwa professionelle Datendienste wie LSEG oder Bloomberg bieten. Jeremy Leung, der fast 20 Jahre lang Unternehmen für die Schweizer Großbank UBS analysierte, nutzt seit seinem Weggang ChatGPT. „Selbst das einfache ChatGPT-Tool kann vieles von dem nachbilden, was ich früher gemacht habe“, sagt er. Er räumt jedoch ein, dass wichtige Analysepunkte fehlen könnten. Der Erfolg hänge stark von der Qualität der Eingabeaufforderungen, den Prompts, ab. Man müsse der KI genaue Anweisungen geben, etwa „gehe von der These eines Leerverkäufers aus“ oder „nutze nur glaubwürdige Quellen wie SEC-Einreichungen“.
Investmentprofi Christian Jasperneite sieht ein weiteres Problem darin, dass ein sogenannter Backtest als relevante Qualitätssicherung nicht möglich ist. Dabei wird untersucht, wie gut eine bestimmte Anlagestrategie in der Vergangenheit funktioniert hätte. „Ich kann die KI nicht fragen, wie hättest du denn vor einem Jahr oder vor zwei Jahren entschieden“, sagt der Chief Investment Officer von M.M. Warburg.
Die größte Gefahr sehen Experten jedoch in einer möglichen Marktwende. Bisher profitierten die KI-gestützten Portfolios von einem allgemein positiven Börsenumfeld. Der US-Index S&P 500 hat in diesem Jahr 13 Prozent zugelegt, der DAX sogar rund 18 Prozent. „Wenn die Leute sich daran gewöhnen, mit KI zu investieren und Geld zu verdienen, sind sie möglicherweise nicht in der Lage, eine Krise oder einen Abschwung zu bewältigen“, warnt Leung. Es sei unklar, ob Privatanleger die nötigen Instrumente zum Risikomanagement einsetzten, um sich vor potenziellen Verlusten zu schützen.
Kommentare
Willkommen in unserer Community! Eingehende Beiträge werden geprüft und anschließend veröffentlicht. Bitte achten Sie auf Einhaltung unserer Netiquette und AGB. Für ausführliche Diskussionen steht Ihnen ebenso das krone.at-Forum zur Verfügung. Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.
User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB). Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.