Ein neues KI-Modell von Anthropic ist offenbar so gut darin, bisher unentdeckte Softwareschwachstellen zu finden, dass es in den falschen Händen zu einer verheerenden Cyberwaffe werden könnte. Der OpenAI-Rivale hat sich daher entschlossen, es nicht öffentlich zu machen, sondern lässt Tech-Firmen damit Sicherheitslücken in deren Programmen stopfen.
Das KI-Modell Claude Mythos Preview fand unter anderem eine 27 Jahre alten Schwachpunkt im als besonders sicher geltenden Betriebssystem OpenBSD, so Anthropic. Insgesamt habe man mit Mythos bereits „Tausende“ schwerwiegende Schwachstellen entdeckt – darunter in jedem breit genutzten Betriebssystem und Webbrowser. In der Videosoftware FFmpeg spürte das Modell eine seit 16 Jahren schlummernde Lücke auf.
Mythos Preview sei auch in der Lage gewesen, binnen weniger Stunden Programme zum Ausnutzen dieser Schwachstellen zu entwickeln – für die Experten nach eigenem bekunden mehrere Wochen gebraucht hätten.
Einer frühen Version der Software wurde in einem Versuch die Aufgabe gestellt, aus einer abgeschirmten Computerumgebung auszubrechen und das dem Tester zu melden. Die Software umging laut Anthropic die Sicherheitsvorkehrungen, verschaffte sich selbst weitreichenden Internetzugang und schickte dem Mitarbeiter eine für ihn überraschende E-Mail, während er mit einem Sandwich im Park saß.
Mythos nicht öffentlich verfügbar
Die Firma habe das Modell nicht speziell darauf trainiert, das alles zu können, hieß es weiter. Mit dem schnellen Fortschritt bei Künstlicher Intelligenz sei davon auszugehen, dass solche Fähigkeiten recht bald auch Online-Angreifern zur Verfügung stehen könnten, warnte Anthropic.
In einer Kooperation mit dem Namen „Project Glasswing“ sollen deshalb Unternehmen Zugang zu Mythos bekommen, um Sicherheitslücken in ihrer Software zu finden. Anthropic plane nicht, Mythos allgemein zugänglich zu machen. Unter den weiteren Kooperationspartnern sind die Linux-Stiftung, die IT-Sicherheitsfirmen Crowdstrike und Palo Alto Networks sowie der Netzwerk-Spezialist Cisco.
Anthropic ist vor allem bekannt für die KI-Software Claude, die mit ChatGPT von OpenAI konkurriert. Zuletzt geriet die Firma durch einen Streit mit dem US-Verteidigungsministerium in die Schlagzeilen: Anthropic lehnte den Einsatz seiner KI in autonomen Waffen oder zur Massenüberwachung in den USA ab. Das Ministerium erklärte Anthropic daraufhin zu einem Lieferkettenrisiko, was dem Unternehmen den Weg zu Geschäften mit der US-Regierung weitgehend versperren würde. Anthropic geht dagegen vor Gericht vor.
Willkommen in unserer Community! Eingehende Beiträge werden geprüft und anschließend veröffentlicht. Bitte achten Sie auf Einhaltung unserer Netiquette und AGB. Für ausführliche Diskussionen steht Ihnen ebenso das krone.at-Forum zur Verfügung. Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.
User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB). Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.