Pesquisadores alertam que a análise de habilidades do OpenClaw não impede a prevenção de plugins maliciosos de agentes de IA
- A Saudi Aramco afirmou que a guerra com o Irã causou a maior interrupção no fornecimento de petróleo já registrada
- O ouro mantém-se acima dos US$ 5.200, com as tensões no Oriente Médio e a fraqueza do dólar americano a apoiarem-no antes da divulgação do IPC dos EUA
- O ouro sobe à medida que os riscos geopolíticos sustentam a demanda por refúgios seguros; a força do dólar americano limita os ganhos
- As chances de recessão aumentam com a alta do petróleo acima de US$ 100 em meio à guerra com o Irã
- O ouro enfraquece à medida que as preocupações com a inflação elevam os rendimentos dos títulos dos EUA e o dólar americano; a desvalorização continua amortecida
- O ouro se recupera à medida que os fluxos para ativos seguros contrariam as preocupações com as taxas do Fed impulsionadas pela inflação

Pesquisas recentes mostram que o sistema de busca de habilidades do OpenClaw não constitui uma barreira segura. A publicação de habilidades de terceiros continua sendo um problema para a criação e utilização de agentes de IA.
As habilidades do OpenClaw ainda representam ameaças à segurança, e o recente sistema de varredura de habilidades não constitui uma barreira segura, de acordo com pesquisas recentes de especialistas em segurança. A varredura de habilidades foi proposta como uma porta de entrada para os editores de habilidades, visando interceptar cargas úteis de dados potencialmente maliciosas ou elementos maliciosos da própria habilidade.
Como Cryptopolitan Segundo relatos , serviços de terceiros já representam riscos de segurança, e a adoção de agentes de IA está acelerando e agravando o problema.
O OpenClaw permite que o usuário crie agentes e os execute em uma máquina local ou em um servidor. No entanto, as skills que funcionam diretamente com o OpenClaw podem herdar o mesmo acesso a recursos e ferramentas. Como algumas skills envolvem tarefas sensíveis, como acesso à carteira ou interações on-chain, os conjuntos de skills disponibilizados por terceiros ainda representam um risco.
Como o OpenClaw verifica se as habilidades têm intenções maliciosas?
Pesquisas recentes mostraram que o Clawhub usa o VirusTotal, bem como o sistema de moderação interno do OpenClaw. Os resultados dessas verificações classificam as skills e exibem avisos aos usuários durante a instalação.
Este sistema ainda não é perfeito e pode classificar habilidades como inofensivas ou até mesmo potencialmente prejudiciais. Um problema surge quando o VirusTotal sinaliza a habilidade como suspeita e o OpenClaw como benigna. O usuário recebe um aviso, mas ainda pode confirmar a instalação da habilidade. Habilidades totalmente sinalizadas como maliciosas não são permitidas para download.
O OpenClaw também oferece sandbox e controles de tempo de execução, mas estes são opcionais e não constituem um limite padrão rígido para habilidades de terceiros. O OpenClaw deixa o sandbox baseado em Docker opcional, e algumas ferramentas permanecem disponíveis mesmo com ele desativado.
Os usuários também optam pelo caminho direto porque os ambientes de sandbox podem ser difíceis de implantar e algumas habilidades podem apresentar falhas. Isso também significa que a plataforma depende de revisões e avisos, um sistema que não oferece proteção direta ao executar habilidades de agente.
O OpenClaw consegue detectar habilidades maliciosas?
O OpenClaw já implementou algumas medidas de segurança, incluindo verificações de comportamentos especificamente ligados a códigos interceptadores que podem ler segredos e enviá-los. Essa abordagem é usada em segurança tradicional para detectar processos, solicitações e outros comportamentos suspeitos.
As habilidades de agentes de IA são mais difíceis de analisar porque as entradas envolvem tanto código quanto instruções em linguagem natural, além do comportamento em tempo de execução. A segurança tradicional pode ter pontos cegos para comportamentos de agentes.
A próxima etapa consiste em usar a varredura por IA para detectar comportamentos mais arriscados que não foram identificados por uma busca estática ou pela abordagem usual de expressões regulares. Os agentes de IA podem fornecer uma visão da consistência interna das habilidades, embora não sejam exaustivos em relação ao potencial de exploração. Eles buscam o código explorável mais óbvio ou inconsistências gerais.
Os pesquisadores observaram que o sistema de verificação e moderação do OpenClaw aprovava habilidades rapidamente, enquanto o VirusTotal às vezes levava dias para sinalizar a adição. Também era possível adicionar exploits a habilidades já aprovadas. Isso significava que o processo do OpenClaw podia declarar habilidades como benignas quando elas poderiam conter comportamentos inesperados.
Para desenvolvedores de agentes de IA, os pesquisadores recomendam o uso de sandbox ou ferramentas para impedir a execução de skills, mesmo que sejam sinalizadas como benignas. Os pesquisadores também alertaram que as plataformas de skills devem considerar que skills aparentemente normais podem esconder vulnerabilidades e evitar usá-las em ambientes de alto valor, que podem conceder acesso a carteiras de criptomoedas ou outras informações sensíveis.
Leia mais
Isenção de responsabilidade: este artigo representa apenas a opinião do autor e não pode ser usado como consultoria de investimento. O conteúdo do artigo é apenas para referência. Os leitores não devem tomar este artigo como base para investimento. Antes de tomar qualquer decisão de investimento, procure orientação profissional independente para garantir que você entenda os riscos.
Os Contratos por Diferença (CFDs) são produtos alavancados que podem resultar na perda de todo o seu capital. Esses produtos não são adequados para todos os clientes; por favor, invista com rigor. Consulte este arquivo para obter mais informações.



