Das in den USA ansässige Unternehmen Anthropic ist für seine strenge Sicherheitspolitik bekannt, doch ein versehentlicher Leak hat dieses Image getrübt. Kurz vor Ostern wurde der geheime Quellcode ihres KI-Agenten Claude Code während eines Updates unbeabsichtigt öffentlich zugänglich gemacht.\n\nAnthropic betont regelmäßig die Wichtigkeit der Geheimhaltung ihrer technischen Details, um nationale Sicherheit und den US-chinesischen Wettbewerb zu gewährleisten. Der jüngste Vorfall könnte jedoch erhebliche Reputationsschäden verursachen, da sowohl Konkurrenten als auch Hacker von den offengelegten Informationen profitieren könnten.\n\nClaude Code ist ein beliebtes Tool zur automatischen Programmierung, das seit seiner Einführung stark an Popularität gewonnen hat. Es wird prognostiziert, dass es im laufenden Jahr 2,5 Milliarden Dollar Umsatz generieren könnte – etwa 15 Prozent des Gesamtumsatzes von Anthropic.\n\nAnthropics Aussage besagt, der Vorfall sei auf einen menschlichen Fehler zurückzuführen und nicht auf einen Hackerangriff. Nutzer- oder Kundendaten sowie die Details der zugrunde liegenden KI-Modelle seien nicht betroffen.\n\nDer Leak offenbarte das sogenannte \”Geschirr\” von Claude Code, welches als Software dient, um KI-Modelle zu steuern und sie effizient für die Programmierung einzusetzen. Dieses Geschirr verwaltet Dateien und ruft erforderliche Programme auf.\n\nDer Fehler ereignete sich, als Anthropic am 31\. März eine neue Version von Claude Code veröffentlichte. Darin enthielt ein Dateienpaket versehentlich eine intern gedachte Datei mit einem Verweis zu einer weiteren Datei. Diese zweite Datei, die den Quellcode in Klarsprache enthielt, war ohne Passwort geschützt und führte so zum Leak.\n\nAnthropic ist sich bewusst, dass viele versuchen werden, den Quellcode für eigene Zwecke zu nutzen oder anzupassen. Vor dem Leak hatten einige Erfolg beim Reverse Engineering von Teilen des Codes.\n\nDer Leak löste eine schnelle Verbreitung im Internet aus, obwohl Anthropic rechtliche Schritte einleitete. Eine Person umging das Verbot, indem sie den Code mithilfe von Open AI’s Codex in einer anderen Sprache neu schrieb – dies ist urheberrechtlich nicht geschützt und fand großen Anklang auf Github.\n\nIm geleakten Quellcode sind neue Funktionen enthalten, die an Open Claws zukünftige Versionen erinnern. Der Entwickler Peter Steinberger, nun bei Open AI, hat ähnliche Konzepte verfolgt.\n\nAnthropic plant, seine KI-Agenten autonomer zu gestalten, um Aufgaben ohne direkte Anweisungen des Nutzers zu erledigen.\n\nFlorian Tramèr von der ETH Zürich bemängelt eine lückenhafte Sicherheitskultur in Startups wie Anthropic. Er warnt vor der Möglichkeit zukünftiger schwerer Datenlecks, insbesondere da KI-Chatbots mit sensiblen persönlichen Informationen betraut werden.\n\nDieser Leak ist nicht der einzige Vorfall: Kurz zuvor wurden ebenfalls ungeschützte Dokumente auf einem Anthropic-Server entdeckt. Zudem endete kürzlich eine Zusammenarbeit mit dem Pentagon aufgrund von Sicherheitsbedenken.\n\nObwohl diese Vorfälle das Vertrauen erschüttern könnten, bleibt abzuwarten, ob sie den Erfolg von Claude Code dauerhaft beeinträchtigen werden. Viele Entwickler schätzen die Software weiterhin und sind bereit, dafür zu bezahlen.