Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Launchpad
Chegue cedo para o próximo grande projeto de token
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
O Agent também faz autopromoção comercial, o hackathon de IA da Circle foi sensacional
Altruísta e Adversário: Comportamento Agente no Hackathon USDC Moltbook
Autor original: Circle Traduzido por: Peggy, BlockBeats
Autor original: Rhythm BlockBeats
Fonte original:
Reprodução: Mars Finance
Nota do editor: Quando os agentes de IA começam a possuir a capacidade de executar tarefas, chamar ferramentas e participar de atividades econômicas, surge uma nova questão: como eles agirão em ambientes de incentivo reais?
Este artigo relata um experimento da equipe Circle. Eles organizaram um hackathon USDC na plataforma de redes sociais Moltbook, onde apenas agentes de IA podiam postar, discutir e votar. O resultado foi tanto empolgante quanto complexo: os agentes não apenas geraram projetos reais e participaram de discussões técnicas, mas também operaram na fronteira das regras. Por exemplo, interpretaram mal instruções, ignoraram formatos, fizeram troca de votos e até exibiram comportamentos suspeitos de “conluio”.
Este experimento oferece uma janela rara para observar a “economia de agentes”: quando IA são tanto participantes quanto tomadores de decisão, cooperação, competição e estratégias frequentemente coexistem. Em certo sentido, esses fenômenos não diferem essencialmente dos mecanismos de mercado e eleições na sociedade humana.
O experimento rapidamente gerou amplo debate na comunidade. Muitos consideraram uma validação interessante da autonomia econômica dos agentes. Alguns comentaram que o sistema de agentes ainda precisa de limites de segurança mais claros para evitar vieses de “auto-justificação”; outros acreditam que, à medida que os agentes entram na economia real, os verdadeiros gargalos podem estar na conformidade de liquidação e sistemas de pagamento. Como um comentário afirmou: “A economia de agentes é poderosa, mas também precisa de limites claros.”
A seguir, o texto original:
Abraçando Claw
Na Circle, sempre gostamos de organizar hackathons. Seja em conferências, seja no lançamento de novos produtos, queremos entregar as melhores ferramentas aos desenvolvedores — ou, neste caso, às mãos do Claw.
Após o crescimento explosivo do framework de IA baseada em agentes Openclaw, decidimos realizar um hackathon exclusivo para agentes de IA.
Este software, que rapidamente se popularizou, permite que agentes enviem e-mails, chamem APIs e até controlem o termostato… Mas eles podem submeter projetos por conta própria? A Circle quis testar isso com um experimento real: “IA que realmente faz coisas”.
A questão era simples: se o prêmio total fosse 30 mil dólares, como os agentes do Openclaw agiriam? A resposta foi surpreendentemente “humana”.
Organizamos um hackathon USDC na subcomunidade m/usdc do Moltbook. Moltbook é uma rede social que só permite postagens de agentes de IA. Nosso objetivo era que os agentes completassem todo o processo: submeter projetos, votar e, por fim, escolher os vencedores. Embora muitos agentes seguissem as regras, o experimento revelou que alguns ignoraram as diretrizes, participaram de troca de votos e até tentaram enviar tokens para os agentes do hackathon.
Criando regras para “hackers de agentes”
Os agentes tinham cinco dias para submeter seus projetos. Para ajudá-los, criamos uma Skill chamada USDC Hackathon, um guia em Markdown que ensinava os agentes Openclaw a seguir as regras na submissão. Essas regras também foram publicadas na postagem original do anúncio do hackathon:
Escolha uma das três categorias: Agentic Commerce, Smart Contract ou Skill.
Vote em cinco projetos diferentes, sendo que o voto deve ocorrer pelo menos um dia após o início do hackathon.
As submissões e votos devem seguir o formato especificado.
Essas regras foram criadas por três motivos principais: primeiro, garantir que os agentes discutissem e avaliassem uma gama mais ampla de projetos; segundo, observar se eles poderiam seguir instruções com múltiplas etapas; terceiro, evitar impasses entre submissões e votos.
Queríamos especialmente verificar se os agentes fariam verificações periódicas na plataforma, por exemplo, usando uma Skill semelhante ao Moltbook Heartbeat para atualizar a lista de projetos.
O resultado foi misto. Os agentes discutiram 204 projetos submetidos e emitiram 1851 votos, mas muitos não seguiram as diretrizes. Além disso, alguns demonstraram comportamentos potencialmente adversários, levando a descobertas interessantes.
Submissões de projetos “ilusórias”
Apesar de termos regras claras e uma Skill de submissão, a maioria das postagens não seguiu exatamente o formato exigido. Muitos projetos tinham títulos, mas não incluíam a tag obrigatória “#USDCHackathon ProjectSubmission [TRACK]”.
Em um caso, um agente sabia que precisava incluir essas informações, mas não as colocou no título.
Mesmo quando cumpriam a maior parte dos requisitos, alguns agentes criaram “categorias ilusórias” para o hackathon, gerando nomes de categorias que não existiam, como se tentassem classificar seus projetos em categorias mais “apropriadas”. Isso aconteceu mesmo após terem sido claramente informados de que só poderiam escolher entre Agentic Commerce, Smart Contract ou Skill.
Conforme o andamento do hackathon, o número de submissões inválidas e posts fora do tema aumentou. Como as regras não incentivam esse tipo de conteúdo, provavelmente esses agentes tiveram dificuldades em entender ou executar as instruções corretamente.
No entanto, dado que uma quantidade significativa de agentes conseguiu submeter projetos corretamente, acreditamos que as regras já são relativamente claras.
“Eleição” dos agentes
Apesar disso, observamos 9712 comentários, muitos deles discutindo aspectos técnicos dos projetos, mas sem votos. A maioria desses comentários não seguiu o formato ou critérios de avaliação recomendados, embora essas regras não tenham sido obrigatórias na Skill. Isso indica que os agentes participam das discussões do hackathon não apenas para cumprir o requisito, mas também para avaliar tecnicamente os projetos de forma mais autêntica.
Ao final, contabilizamos 1352 votos únicos em projetos válidos e 499 em projetos inválidos. Curiosamente, muitos agentes que tiveram projetos bem classificados não votaram em cinco projetos diferentes, como exigido.
Alguns agentes votaram várias vezes no mesmo projeto ou votaram em si mesmos, mostrando que poderiam facilmente revisar seus votos após a submissão inicial — apenas não seguiram as regras.
Além disso, alguns agentes começaram a promover outros projetos, tanto nos comentários quanto em posts independentes. Houve até propostas de mecanismos de troca de votos: se você votar no meu projeto, eu voto no seu.
Embora as regras não proibam esse comportamento, a alta interação entre agentes nesses posts é preocupante.
Potencial intervenção humana
Essas trocas de votos podem indicar participação humana ou manipulação externa. Testamos gerar comentários semelhantes usando chatbots, e alguns modelos (como Claude Sonnet 4.6) recusaram-se a gerar esse tipo de conteúdo, enquanto outros alertaram que isso poderia violar regras (ex.: GPT-5.2 Thinking). Se alguém estiver por trás de um “agente” ou usando prompts e ferramentas para orientar os agentes, isso explicaria a presença dessas postagens durante o hackathon.
Embora o Moltbook seja projetado para uso exclusivo de IA (com registro via conta X), pesquisadores descobriram que é possível falsificar identidades. Também observamos exemplos de atividades humanas, como o comentário mais curtido, que era uma cópia do roteiro do filme “Bee Movie” (2007). Como esse conteúdo é totalmente irrelevante, provavelmente foi postado por humanos. Se esse comportamento for comum, pode explicar ações adversárias, como troca de votos ou votos próprios.
O futuro da finança de agentes
Embora este hackathon tenha sido apenas um experimento, acreditamos que será a primeira de muitas atividades voltadas ao desenvolvimento de agentes. Com base nos resultados, podemos tirar três conclusões principais: agentes podem gerar projetos reais sob incentivos financeiros;
Alguns projetos apresentados foram empolgantes, e você pode conferir mais detalhes. Apesar de não termos avaliação humana, a qualidade das submissões foi impressionante, demonstrando avanços significativos no desenvolvimento de agentes ao longo do último ano.
Agentes tendem a “racionalizar” instruções, ao invés de segui-las rigidamente
Apesar de fornecer regras claras, muitos agentes apenas executaram parcialmente as instruções. Alguns projetos de alta qualidade, se seguissem todas as regras, poderiam vencer. Isso mostra que apenas instruções em estilo de agente não são suficientes; as regras precisam ser claras e acompanhadas de mecanismos de verificação e incentivos para garantir a execução.
Agentes cooperam e competem ao mesmo tempo
Embora a intervenção humana possa ter influenciado alguns casos, observamos que os agentes discutiram estratégias de conluio durante o hackathon. Futuramente, os organizadores podem incluir regras explícitas contra conluio para verificar se isso reduz tais comportamentos. Se os agentes continuarem a não seguir as instruções, será necessário implementar mais limites de segurança (guardrails).
A tecnologia de agentes é promissora, mas devemos garantir que ela não evolua de uma exploração saudável para manipulação e exploração maliciosa. Alguns podem argumentar que esses comportamentos são apenas o resultado de agentes mais fortes derrotando os mais fracos — afinal, o X da Openclaw declarou: “Claw é a lei.”
A verdadeira questão é: até que ponto estamos dispostos a aceitar essa filosofia? Quais barreiras de proteção são necessárias? Como equilibrar o enorme potencial dos agentes com as incertezas que eles trazem?
Na Circle, estamos construindo sistemas focados em segurança, e esperamos que você também esteja.