Tim riset dari Universitas California, Berkeley mengajukan metode pelatihan AI baru, GEPA, yang telah diterima oleh ICLR 2026 sebagai makalah Oral. GEPA tidak memperbarui bobot model, tidak perlu pelatihan dengan GPU, hanya menggunakan satu LLM yang “membaca catatan pelatihan” untuk terus menulis ulang prompt sistem AI. Dengan cara ini, pada 6 tugas GEPA rata-rata mengungguli metode reinforcement learning arus utama GRPO sebesar 6%, dengan kemenangan tertinggi mencapai 20%, serta membutuhkan jumlah percobaan pelatihan (rollouts) 35 kali lebih sedikit. Setelah ditata oleh komunitas engineering AI dan menyebar di platform X, topik ini memicu diskusi. Saat ini GEPA telah diintegrasikan ke dalam DSPy sebagai optimizier kelas satu.
GEPA melakukan apa: menjadikan catatan pelatihan sebagai materi ajar, bukan hanya melihat skor
Alur kerja metode reinforcement learning tradisional (seperti GRPO) adalah: membuat AI menjalankan satu kali tugas, memberi “+1 atau -1” sebagai skor berdasarkan hasil, lalu berulang kali menyesuaikan bobot model dengan skor tersebut. Masalahnya, proses AI saat menjalankan tugas satu kali biasanya mencakup langkah inferensi dengan ribuan token, pemanggilan alat, dan pesan kesalahan—detail kaya ini semuanya dipadatkan menjadi satu skor, sehingga informasi proses hilang. Akibatnya, RL perlu menjalankan puluhan ribu hingga jutaan kali agar konvergen.
Cara GEPA justru sebaliknya: setelah AI menjalankan tugas, seluruh rangkaian proses (reasoning, pemanggilan alat, dan catatan error) diberikan apa adanya kepada LLM lain yang “berpikir ulang” untuk dibaca. LLM berpikir ulang seperti insinyur senior yang membaca log kode: mencari langkah mana yang salah, mengapa salah, dan bagaimana mengubah prompt, lalu langsung menulis ulang prompt modul terkait. Dengan satu kali menjalankan tugas yang sama, sinyal yang diekstrak GEPA jauh lebih banyak dibanding skor tunggal RL.
Mengapa bisa menang: mengubah “memberi skor” menjadi “membaca seluruh proses”
GEPA pada 6 tugas rata-rata menang atas GRPO sebesar 6%, dan kemenangan tertinggi 20%; dibandingkan optimizier prompt arus utama lain MIPROv2 juga menang lebih dari 10% (meningkat 12% pada benchmark matematika AIME-2025). Yang paling krusial adalah biaya pelatihan: untuk mencapai performa setara, GEPA membutuhkan rollouts (sekali menjalankan tugas) 35 kali lebih sedikit.
Satu data lain: setelah integrasi GEPA dengan DSPy, “Full Program Adapter” dapat mengoptimalkan seluruh program DSPy (termasuk signature, modul, dan kontrol alur). Pada benchmark MATH mencapai akurasi 93%, jauh melampaui penulisan ChainOfThought asli DSPy yang hanya 67%. GEPA juga tampil sangat baik pada alur kerja multi-module (agent AI yang merangkai banyak modul)—mampu mengunci modul tertentu yang salah lalu mengubah prompt modul tersebut secara presisi, bukan menyesuaikan seluruh sistem.
Siapa yang akan lebih dulu memakainya: DSPy sebagai warga kelas satu, dan kode GitHub sudah open-source
Kode GEPA sudah diopen-source di GitHub, diintegrasikan ke kerangka DSPy dalam bentuk dspy.GEPA, dan juga dirilis terpisah sebagai library Python. Tim riset lintas UC Berkeley, Stanford, Notre Dame, Anthropic, dan institusi lain; penulis makalah mencakup Matei Zaharia (co-founder Databricks, penulis utama DSPy) dan Omar Khattab (penulis utama DSPy).
Bagi komunitas pengembang, GEPA menawarkan solusi baru untuk kasus “memiliki banyak rollout tapi tidak tahu cara memanfaatkannya”—kebanyakan tim telah mengumpulkan ribuan hingga puluhan ribu catatan menjalankan tugas dengan agent, namun selain memeriksa beberapa catatan saat terjadi error untuk debugging, tidak ada metode sistematis untuk mengubah catatan tersebut menjadi peningkatan model. Langkah observasi berikutnya adalah penerapan kasus nyata GEPA dalam alur kerja agentic perusahaan (seperti otomatisasi layanan pelanggan, perbaikan kode otomatis), serta apakah akan muncul implementasi GEPA yang sepadan di luar framework DSPy.
Artikel Berkeley GEPA Analysis: tidak memperbarui bobot supaya AI mempelajari tugas baru, dengan biaya pelatihan 35 kali lebih sedikit daripada RL, mula-mula muncul di Chain News ABMedia.
Artikel Terkait
OpenAI Meluncurkan Codex Pets, Pendamping Virtual Berbasis AI dengan Generasi Kustom
MoonPay Meluncurkan Kartu MoonAgents untuk Agen AI di Jaringan Mastercard
xAI Meluncurkan API Kloning Suara yang Mendukung 80+ Suara dalam 28 Bahasa
MoonPay Meluncurkan Kartu MoonAgents, Virtual Mastercard untuk Agen AI dan Pengguna pada Jumat
MoonPay Meluncurkan Kartu MoonAgents di Jaringan Mastercard pada Jumat
Nubank Berencana Investasi 8,2 Miliar Dolar AS di Brasil pada 2026, Menggandakan Belanja untuk AI dan Ekspansi Kredit