Análise do GEPA do Berkeley: a IA aprende novas tarefas sem atualizar pesos, com 35 vezes menos custo de treinamento do que o RL

ChainNewsAbmedia

A equipe de pesquisa da Universidade da Califórnia em Berkeley apresentou um novo método de treinamento de IA, a GEPA, que já foi aceita na ICLR 2026 como artigo Oral. A GEPA não atualiza os pesos do modelo, não exige treinamento em GPU e, em vez disso, usa um único LLM que “lê um histórico de treinamento” para reescrever repetidamente os prompts de um sistema de IA. Com isso, ela vence em média métodos de reforço learning (GRPO) em 6% nas 6 tarefas, chegando ao melhor desempenho de 20%, com 35 vezes menos tentativas de treinamento (rollouts) necessárias. Depois que a pesquisa foi organizada por uma comunidade de engenharia de IA e se espalhou, gerou discussões na plataforma X; agora ela já foi integrada ao DSPy como um otimizador de primeira classe.

O que a GEPA faz: transformar o histórico de treinamento em material didático, sem olhar apenas para a pontuação

O fluxo de trabalho dos métodos tradicionais de reforço learning (como o GRPO) é: fazer a IA executar uma tarefa, atribuir uma pontuação “+1 ou -1” com base no resultado e, em seguida, ajustar os pesos do modelo repetidamente usando essa pontuação. O problema é que, durante a execução da tarefa, o processo de IA normalmente inclui etapas de raciocínio com milhares de tokens, chamadas de ferramentas e mensagens de erro — esses detalhes ricos acabam sendo comprimidos em uma única pontuação, e a informação do processo é descartada. Por isso, o RL precisa rodar dezenas de milhares de vezes até convergir.

A abordagem da GEPA é o oposto: após cada execução da tarefa, ela entrega todo o processo (reasoning, chamadas de ferramentas e registros de erros) para outro “LLM de reflexão” ler. O LLM de reflexão funciona como um engenheiro sênior lendo um log de código: ele identifica em que etapa ocorreu o erro, por que ocorreu e como o prompt deve ser modificado; depois disso, ele reescreve diretamente o prompt do módulo correspondente. Rodando a tarefa da mesma forma, a quantidade de sinal extraída pela GEPA é muito maior do que a de uma única pontuação do RL.

Por que ela consegue vencer: trocar “dar nota” por “ler o processo inteiro”

A GEPA vence o GRPO em 6 tarefas, com média de 6% e pico de 20%; e, em comparação, outro otimizador de prompts comum, o MIPROv2, também fica para trás em mais de 10% (aumentando 12% na base matemática AIME-2025). O ponto mais crítico está no custo de treinamento: a GEPA precisa de 35 vezes menos rollouts (uma execução completa da tarefa) para atingir o mesmo desempenho.

Um outro dado: após a integração com o DSPy, o “Full Program Adapter” da GEPA consegue otimizar todo o programa do DSPy (incluindo signature, módulos e fluxo de controle). Na base de matemática MATH, alcança 93% de acurácia, superando de forma significativa a escrita original do ChainOfThought do DSPy, que era de 67%. A GEPA também se destaca especialmente em fluxos de multi-module (agentes de IA encadeados por múltiplos módulos) — permitindo localizar com precisão qual módulo específico está falhando e reescrever apenas o prompt dele, em vez de ajustar o sistema inteiro.

Quem deve usar primeiro: DSPy como cidadão de primeira classe, e o código já está aberto no GitHub

O código da GEPA foi aberto no GitHub e é integrado ao framework do DSPy na forma de dspy.GEPA; além disso, também é disponibilizada separadamente como uma library Python. A equipe de pesquisa é composta por membros de UC Berkeley, Stanford, Notre Dame, Anthropic e outras instituições. Entre os autores do artigo estão Matei Zaharia (cofundador da Databricks e principal autor do DSPy) e Omar Khattab (principal autor do DSPy).

Para a comunidade de desenvolvedores, a GEPA oferece uma nova solução para um problema recorrente: “temos muitos rollouts, mas não sabemos como aproveitá-los”. Muitas equipes já acumularam dezenas de milhares de registros de execuções de agentes, mas, além de consultar algumas amostras para corrigir bugs quando dá erro, não existe um método sistemático para converter esses registros em melhorias do modelo. O próximo ponto de observação é ver como a GEPA se comporta em casos reais de fluxos de agentes em ambiente corporativo (como automação de atendimento ao cliente e reparo automático de código) e se surgirão implementações correspondentes de GEPA fora do framework DSPy.

Este artigo de Berkeley destrincha a GEPA: sem atualizar pesos, a IA aprende novas tarefas com 35 vezes menos custo de treinamento, vencendo o RL — a matéria original mais cedo sobre isso surgiu no ABMedia, via cadeias de notícias.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

Vercel abre o código do framework deepsec com mais de 1.000 de concorrência em sandbox para varredura local de segurança de IA

De acordo com Beating, a Vercel abriu o código do deepsec, uma estrutura de testes de segurança orientada por IA que permite que os desenvolvedores façam varreduras de grandes bases de código localmente, sem expor o código-fonte a serviços de nuvem externos. A estrutura utiliza um fluxo de verificação em várias etapas: após o filtro inicial por regex, um

GateNews1h atrás

As câmeras de IA da Netradyne monitoram o comportamento do motorista em frotas

Sistema de monitoramento do motorista com IA da Netradyne A Netradyne, startup indiana, está implantando câmeras com IA em frotas de veículos comerciais para monitorar o comportamento do motorista e reduzir acidentes. As câmeras voltadas para dentro focam no motorista em vez dos passageiros, alertando os motoristas quando eles excedem os limites de velocidade o

CryptoFrontier2h atrás

AequiSolva Lança a Arquitetura de IA Sentinel Stack para Verificação Institucional de Ativos em 30 de Abril

De acordo com a AequiSolva, a empresa lançou sua Sentinel Stack™ arquitetura de câmbio integrada com IA em 30 de abril de 2026, com execução determinística, vigilância de mercado orientada por IA e o Omni-Attest Engine™ para prova criptográfica contínua de reservas. A plataforma combina três núcleos principais

GateNews7h atrás

Karpathy agora mostra: o método completo para criar um banco de conhecimento pessoal usando LLM

Os membros da equipe fundadora da OpenAI, Andrej Karpathy, ex-diretor de IA da Tesla, publicou no X o fluxo de trabalho de “LLM Knowledge Bases” e explicou como, recentemente, ele migrou o uso de uma grande quantidade de tokens de “controle de código” para “controle de conhecimento” — usando LLM para transformar artigos, papers, pastas, imagens dispersos em um wiki pessoal automaticamente mantido. Todo o processo já foi acumulado em seus projetos de pesquisa, somando ~100 artigos, ~400 mil palavras, e todo o ciclo foi escrito e atualizado pelo LLM. Este texto reúne o setup completo de Karpathy e fornece uma lista de implementação prática para desenvolvedores que queiram replicar. Ideia central: dados brutos → LLM compilando → wiki → Q&A A filosofia de design de Karpathy pode ser resumida em um

ChainNewsAbmedia14h atrás

Bitcoin Treasury Firm K Wave Media garante até $485M para a construção da infraestrutura de IA

De acordo com o ChainCatcher, a empresa de tesouraria de bitcoin listada na Nasdaq, K Wave Media, anunciou em 4 de maio uma mudança estratégica para infraestrutura de IA, garantindo até US$ 485 milhões em apoio de capital para investimentos em data centers, serviços de aluguel de GPUs e aquisições e parcerias de infraestrutura de IA. A empresa

GateNews15h atrás

A Antimatter lança um plano de data center de IA com financiamento de €300 milhões

A Antimatter, empresa francesa de infraestrutura em nuvem para cargas de trabalho de IA, foi lançada em 4 de maio ao combinar três empresas existentes: Datafactory, Policloud e Hivenet. A empresa está captando € 300 milhões (US$ 351 milhões) para implantar 100 unidades de micro data centers em 2026 para inferência de IA

CryptoFrontier17h atrás
Comentário
0/400
Sem comentários