Open Source2026-05-14
VentureBeat
Anthropic Restaura Uso do OpenClaw com Condição
A Anthropic respondeu à pressão da comunidade restaurando o uso do OpenClaw e de ferramentas de agentes de terceiros nas assinaturas do Claude — mas com novas restrições importantes. O anúncio, feito através da conta oficial de comunicações para desenvolvedores da empresa, marca uma reversão de uma política anterior que havia frustrado muitos usuários avançados.
O OpenClaw é um harness agêntico de código aberto que permite aos desenvolvedores construir agentes autônomos capazes de realizar tarefas complexas usando o modelo de linguagem subjacente do Claude. Quando a Anthropic inicialmente restringiu seu uso, a comunidade de desenvolvedores reagiu fortemente, argumentando que a medida minava o espírito de inovação de código aberto que havia tornado o Claude popular.
Sob a nova política, os usuários podem mais uma vez alimentar o OpenClaw com sua assinatura do Claude, mas devem aderir a diretrizes de uso mais rigorosas. Especificamente, a Anthropic impôs limites no número de sessões de agente simultâneas e nos tipos de tarefas que podem ser automatizadas. Aplicações de alto risco, como aquelas que envolvem transações financeiras ou geração automatizada de conteúdo em grande escala, exigem aprovação adicional.
A empresa afirmou que essas restrições são necessárias para manter a estabilidade da plataforma e prevenir abusos. Ao limitar como o OpenClaw pode ser utilizado, a Anthropic visa equilibrar o empoderamento dos desenvolvedores com a proteção da integridade de seu serviço.
As primeiras reações da comunidade de desenvolvedores são mistas. Muitos estão aliviados que o suporte ao OpenClaw retornou, mas alguns sentem que as novas restrições são muito vagas ou restritivas. 'É um passo na direção certa, mas os limites em sessões simultâneas podem prejudicar projetos sérios', comentou um desenvolvedor nas redes sociais.
A Anthropic prometeu monitorar a situação de perto e pode ajustar a política com base no feedback dos usuários. A empresa também está trabalhando em documentação oficial para esclarecer as novas regras e fornecer exemplos de casos de uso aprovados.
Esta medida reflete uma tensão mais ampla na indústria de IA entre abertura e controle, à medida que as empresas se esforçam para promover a inovação enquanto gerenciam riscos.
