Im Wettlauf der Entwickler Künstlicher Intelligenz gibt es eine ungewöhnliche Kooperation zwischen zwei Rivalen: Anthropic bekommt dringend benötigte Rechenleistung aus einem riesigen Rechenzentrum von Elon Musk. Was die Partnerschaft überraschend macht: Anthropic ist ein direkter Konkurrent von Musks xAI. Der Tech-Milliardär verriss den Rivalen noch vor wenigen Monaten als „menschenfeindlich“.
Anthropic teilte am Mittwoch mit, man werde die gesamte Kapazität des Rechenzentrums Colossus 1 von Musks Raumfahrtfirma SpaceX nutzen, in die inzwischen xAI eingebracht wurde. Das bedeute Zugang zu mehr als 220.000 KI-Chips von Nvidia, dem führenden Anbieter von Halbleitern für Künstliche Intelligenz.
Musk inzwischen „beeindruckt“
Bei xAI wird der Chatbot Grok entwickelt, der mit Anthropics KI-Software Claude konkurriert. Beide Unternehmen wiederum sind Rivalen des ChatGPT-Entwicklers OpenAI, mit dem Musk seit Jahren eine eskalierende Fehde führt. Aktuell läuft ein Gerichtsprozess, in dem Musk erreichen will, dass OpenAI-Chef Sam Altman seinen Posten verliert und die Struktur des Konkurrenten geändert wird.
Auch Anthropic wurde von Musk jüngst angegriffen. So behauptete er auf seiner Online-Plattform X im Februar, die KI von Anthropic hasse Weiße, Heterosexuelle und Männer. Das sei „menschenfeindlich und böse“.
Jetzt schlug Musk ganz andere Töne an. Er habe vergangene Woche viel Zeit mit Spitzenmitarbeitern des Anthropic-Teams verbracht, um sich darüber zu informieren, wie sie dafür sorgten, dass Claude gut für die Menschheit sei. Dabei sei er „beeindruckt“ worden. Deshalb sei er damit einverstanden gewesen, Colossus 1 an Anthropic zu vermieten – während die eigene KI-Entwicklung inzwischen in das nächste Rechenzentrum Colossus 2 gewandert sei.
Rechenzentren im All
Von SpaceX hieß es auch, Anthropic habe Interesse an einer Zusammenarbeit beim Vorhaben, Rechenzentren für Künstliche Intelligenz im Weltall aufzubauen. Musk argumentiert, dass wegen Engpässen unter anderem bei der Energie genügend Computerleistung für künftige KI-Anwendungen nur in der Umlaufbahn platziert werden kann. Allerdings gibt es Zweifel daran, ob eine solche Idee rentabel umsetzbar ist.
Anthropic zwischen Pentagon und Mythos
Anthropic stand in den vergangenen Monaten immer wieder in den Schlagzeilen. Die Firma riskierte einen Konflikt mit der US-Regierung, da sie trotz massiven Drucks darauf bestand, dass ihre KI-Modelle nicht in autonomen Waffensystemen und zur Massenüberwachung in den USA verwendet werden dürfen. Das Pentagon erklärte Anthropic daraufhin zu einem Lieferketten-Risiko, was den Einsatz von Software des Unternehmens in Regierungsbehörden schwer beeinträchtigen kann. Die Firma klagt dagegen.
Zuletzt demonstrierte Anthropic aber, wie wichtig Technologie des Unternehmens für die US-Regierung ist. Ein neues Anthropic-Modell mit dem Namen Claude Mythos Preview findet zum Teil seit Jahrzehnten unentdeckt gebliebene Schwachstellen in verschiedener Software. In den falschen Händen wäre es damit eine gefährliche Cyberwaffe – und könnte zugleich der US-Regierung einen Vorteil geben, eigene Programme zu härten und potenzielle Schwachstellen für Spionage im Ausland auszunutzen. Anthropic hat keine Pläne, Mythos Preview öffentlich zu machen.
Willkommen in unserer Community! Eingehende Beiträge werden geprüft und anschließend veröffentlicht. Bitte achten Sie auf Einhaltung unserer Netiquette und AGB. Für ausführliche Diskussionen steht Ihnen ebenso das krone.at-Forum zur Verfügung. Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.
User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB). Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.