Open Source2026-05-14
VentureBeat
Anthropic stellt OpenClaw-Nutzung mit Einschränkung wieder her
Anthropic hat auf den Druck der Community reagiert, indem es die Nutzung von OpenClaw und Drittanbieter-Agenten-Tools in Claude-Abonnements wiederhergestellt hat – allerdings mit wichtigen neuen Einschränkungen. Die Ankündigung, die über den offiziellen Entwicklerkommunikationskanal des Unternehmens erfolgte, markiert eine Kehrtwende gegenüber einer früheren Richtlinie, die viele Power-User verärgert hatte.
OpenClaw ist ein Open-Source-Agenten-Framework, das es Entwicklern ermöglicht, autonome Agenten zu erstellen, die komplexe Aufgaben unter Verwendung des zugrunde liegenden Sprachmodells von Claude ausführen können. Als Anthropic die Nutzung zunächst einschränkte, reagierte die Entwickler-Community stark und argumentierte, dass der Schritt den Geist der Open-Source-Innovation untergrabe, der Claude populär gemacht habe.
Gemäß der neuen Richtlinie können Nutzer OpenClaw wieder mit ihrem Claude-Abonnement betreiben, müssen sich jedoch an strengere Nutzungsrichtlinien halten. Insbesondere hat Anthropic Beschränkungen für die Anzahl gleichzeitiger Agentensitzungen und die Arten von Aufgaben eingeführt, die automatisiert werden können. Hochrisikoanwendungen, wie solche, die Finanztransaktionen oder automatisierte Inhaltserstellung in großem Maßstab betreffen, erfordern eine zusätzliche Genehmigung.
Das Unternehmen erklärte, dass diese Beschränkungen notwendig seien, um die Plattformstabilität zu wahren und Missbrauch zu verhindern. Indem Anthropic die Art und Weise einschränkt, wie OpenClaw umgesetzt werden kann, möchte das Unternehmen ein Gleichgewicht zwischen der Stärkung von Entwicklern und dem Schutz der Integrität seines Dienstes herstellen.
Erste Reaktionen aus der Entwickler-Community sind gemischt. Viele sind erleichtert, dass die OpenClaw-Unterstützung zurückgekehrt ist, aber einige finden die neuen Beschränkungen zu vage oder zu restriktiv. 'Es ist ein Schritt in die richtige Richtung, aber die Grenzen bei gleichzeitigen Sitzungen könnten ernsthafte Projekte behindern', kommentierte ein Entwickler in den sozialen Medien.
Anthropic hat versprochen, die Situation genau zu beobachten und die Richtlinie möglicherweise auf der Grundlage von Nutzerfeedback anzupassen. Das Unternehmen arbeitet auch an offiziellen Dokumentationen, um die neuen Regeln zu klären und Beispiele für genehmigte Anwendungsfälle bereitzustellen.
Dieser Schritt spiegelt eine breitere Spannung in der KI-Branche zwischen Offenheit und Kont
