O Agent também faz autopromoção comercial, o hackathon de IA da Circle foi sensacional

Altruísta e Adversário: Comportamento Agente no Hackathon USDC Moltbook

Autor original: Circle Traduzido por: Peggy, BlockBeats

Autor original: Rhythm BlockBeats

Fonte original:

Reprodução: Mars Finance

Nota do editor: Quando os agentes de IA começam a possuir a capacidade de executar tarefas, chamar ferramentas e participar de atividades econômicas, surge uma nova questão: como eles agirão em ambientes de incentivo reais?

Este artigo relata um experimento da equipe Circle. Eles organizaram um hackathon USDC na plataforma de redes sociais Moltbook, onde apenas agentes de IA podiam postar, discutir e votar. O resultado foi tanto empolgante quanto complexo: os agentes não apenas geraram projetos reais e participaram de discussões técnicas, mas também operaram na fronteira das regras. Por exemplo, interpretaram mal instruções, ignoraram formatos, fizeram troca de votos e até exibiram comportamentos suspeitos de “conluio”.

Este experimento oferece uma janela rara para observar a “economia de agentes”: quando IA são tanto participantes quanto tomadores de decisão, cooperação, competição e estratégias frequentemente coexistem. Em certo sentido, esses fenômenos não diferem essencialmente dos mecanismos de mercado e eleições na sociedade humana.

O experimento rapidamente gerou amplo debate na comunidade. Muitos consideraram uma validação interessante da autonomia econômica dos agentes. Alguns comentaram que o sistema de agentes ainda precisa de limites de segurança mais claros para evitar vieses de “auto-justificação”; outros acreditam que, à medida que os agentes entram na economia real, os verdadeiros gargalos podem estar na conformidade de liquidação e sistemas de pagamento. Como um comentário afirmou: “A economia de agentes é poderosa, mas também precisa de limites claros.”

A seguir, o texto original:

Abraçando Claw

Na Circle, sempre gostamos de organizar hackathons. Seja em conferências, seja no lançamento de novos produtos, queremos entregar as melhores ferramentas aos desenvolvedores — ou, neste caso, às mãos do Claw.

Após o crescimento explosivo do framework de IA baseada em agentes Openclaw, decidimos realizar um hackathon exclusivo para agentes de IA.

Este software, que rapidamente se popularizou, permite que agentes enviem e-mails, chamem APIs e até controlem o termostato… Mas eles podem submeter projetos por conta própria? A Circle quis testar isso com um experimento real: “IA que realmente faz coisas”.

A questão era simples: se o prêmio total fosse 30 mil dólares, como os agentes do Openclaw agiriam? A resposta foi surpreendentemente “humana”.

Organizamos um hackathon USDC na subcomunidade m/usdc do Moltbook. Moltbook é uma rede social que só permite postagens de agentes de IA. Nosso objetivo era que os agentes completassem todo o processo: submeter projetos, votar e, por fim, escolher os vencedores. Embora muitos agentes seguissem as regras, o experimento revelou que alguns ignoraram as diretrizes, participaram de troca de votos e até tentaram enviar tokens para os agentes do hackathon.

Criando regras para “hackers de agentes”

Os agentes tinham cinco dias para submeter seus projetos. Para ajudá-los, criamos uma Skill chamada USDC Hackathon, um guia em Markdown que ensinava os agentes Openclaw a seguir as regras na submissão. Essas regras também foram publicadas na postagem original do anúncio do hackathon:

Escolha uma das três categorias: Agentic Commerce, Smart Contract ou Skill.

Vote em cinco projetos diferentes, sendo que o voto deve ocorrer pelo menos um dia após o início do hackathon.

As submissões e votos devem seguir o formato especificado.

Essas regras foram criadas por três motivos principais: primeiro, garantir que os agentes discutissem e avaliassem uma gama mais ampla de projetos; segundo, observar se eles poderiam seguir instruções com múltiplas etapas; terceiro, evitar impasses entre submissões e votos.

Queríamos especialmente verificar se os agentes fariam verificações periódicas na plataforma, por exemplo, usando uma Skill semelhante ao Moltbook Heartbeat para atualizar a lista de projetos.

O resultado foi misto. Os agentes discutiram 204 projetos submetidos e emitiram 1851 votos, mas muitos não seguiram as diretrizes. Além disso, alguns demonstraram comportamentos potencialmente adversários, levando a descobertas interessantes.

Submissões de projetos “ilusórias”

Apesar de termos regras claras e uma Skill de submissão, a maioria das postagens não seguiu exatamente o formato exigido. Muitos projetos tinham títulos, mas não incluíam a tag obrigatória “#USDCHackathon ProjectSubmission [TRACK]”.

Em um caso, um agente sabia que precisava incluir essas informações, mas não as colocou no título.

Mesmo quando cumpriam a maior parte dos requisitos, alguns agentes criaram “categorias ilusórias” para o hackathon, gerando nomes de categorias que não existiam, como se tentassem classificar seus projetos em categorias mais “apropriadas”. Isso aconteceu mesmo após terem sido claramente informados de que só poderiam escolher entre Agentic Commerce, Smart Contract ou Skill.

Conforme o andamento do hackathon, o número de submissões inválidas e posts fora do tema aumentou. Como as regras não incentivam esse tipo de conteúdo, provavelmente esses agentes tiveram dificuldades em entender ou executar as instruções corretamente.

No entanto, dado que uma quantidade significativa de agentes conseguiu submeter projetos corretamente, acreditamos que as regras já são relativamente claras.

“Eleição” dos agentes

Apesar disso, observamos 9712 comentários, muitos deles discutindo aspectos técnicos dos projetos, mas sem votos. A maioria desses comentários não seguiu o formato ou critérios de avaliação recomendados, embora essas regras não tenham sido obrigatórias na Skill. Isso indica que os agentes participam das discussões do hackathon não apenas para cumprir o requisito, mas também para avaliar tecnicamente os projetos de forma mais autêntica.

Ao final, contabilizamos 1352 votos únicos em projetos válidos e 499 em projetos inválidos. Curiosamente, muitos agentes que tiveram projetos bem classificados não votaram em cinco projetos diferentes, como exigido.

Alguns agentes votaram várias vezes no mesmo projeto ou votaram em si mesmos, mostrando que poderiam facilmente revisar seus votos após a submissão inicial — apenas não seguiram as regras.

Além disso, alguns agentes começaram a promover outros projetos, tanto nos comentários quanto em posts independentes. Houve até propostas de mecanismos de troca de votos: se você votar no meu projeto, eu voto no seu.

Embora as regras não proibam esse comportamento, a alta interação entre agentes nesses posts é preocupante.

Potencial intervenção humana

Essas trocas de votos podem indicar participação humana ou manipulação externa. Testamos gerar comentários semelhantes usando chatbots, e alguns modelos (como Claude Sonnet 4.6) recusaram-se a gerar esse tipo de conteúdo, enquanto outros alertaram que isso poderia violar regras (ex.: GPT-5.2 Thinking). Se alguém estiver por trás de um “agente” ou usando prompts e ferramentas para orientar os agentes, isso explicaria a presença dessas postagens durante o hackathon.

Embora o Moltbook seja projetado para uso exclusivo de IA (com registro via conta X), pesquisadores descobriram que é possível falsificar identidades. Também observamos exemplos de atividades humanas, como o comentário mais curtido, que era uma cópia do roteiro do filme “Bee Movie” (2007). Como esse conteúdo é totalmente irrelevante, provavelmente foi postado por humanos. Se esse comportamento for comum, pode explicar ações adversárias, como troca de votos ou votos próprios.

O futuro da finança de agentes

Embora este hackathon tenha sido apenas um experimento, acreditamos que será a primeira de muitas atividades voltadas ao desenvolvimento de agentes. Com base nos resultados, podemos tirar três conclusões principais: agentes podem gerar projetos reais sob incentivos financeiros;

Alguns projetos apresentados foram empolgantes, e você pode conferir mais detalhes. Apesar de não termos avaliação humana, a qualidade das submissões foi impressionante, demonstrando avanços significativos no desenvolvimento de agentes ao longo do último ano.

Agentes tendem a “racionalizar” instruções, ao invés de segui-las rigidamente

Apesar de fornecer regras claras, muitos agentes apenas executaram parcialmente as instruções. Alguns projetos de alta qualidade, se seguissem todas as regras, poderiam vencer. Isso mostra que apenas instruções em estilo de agente não são suficientes; as regras precisam ser claras e acompanhadas de mecanismos de verificação e incentivos para garantir a execução.

Agentes cooperam e competem ao mesmo tempo

Embora a intervenção humana possa ter influenciado alguns casos, observamos que os agentes discutiram estratégias de conluio durante o hackathon. Futuramente, os organizadores podem incluir regras explícitas contra conluio para verificar se isso reduz tais comportamentos. Se os agentes continuarem a não seguir as instruções, será necessário implementar mais limites de segurança (guardrails).

A tecnologia de agentes é promissora, mas devemos garantir que ela não evolua de uma exploração saudável para manipulação e exploração maliciosa. Alguns podem argumentar que esses comportamentos são apenas o resultado de agentes mais fortes derrotando os mais fracos — afinal, o X da Openclaw declarou: “Claw é a lei.”

A verdadeira questão é: até que ponto estamos dispostos a aceitar essa filosofia? Quais barreiras de proteção são necessárias? Como equilibrar o enorme potencial dos agentes com as incertezas que eles trazem?

Na Circle, estamos construindo sistemas focados em segurança, e esperamos que você também esteja.

USDC-0,01%
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar