05:13
The Decoder tarafından 12 Ekim'de bildirildiği üzere, Meta AI araştırmacıları, ChatGPT gibi sohbet robotlarındaki halüsinasyon sorunlarını önemli ölçüde azaltabilecek istem tabanlı bir yöntem olan Chain-of-Verification'ı (CoVe) önerdi. CoVe ile sohbet robotu önce istemlere yanıt verir ve ardından ifadeleri doğrulamak için bu çıktılara dayalı sorular üretir. Bu "doğrulama soruları" daha sonra hata mesajlarının ilk çıktıdan alınmasını önlemek için ilk girdiden bağımsız yeni ipuçları olarak yürütülür. Son olarak, dil modeli, bireysel olarak toplanan gerçeklere dayalı olarak ilk girişi doğrular. Tüm testler Llama 65 B kullanılarak yapıldı. Araştırma ekibinin araştırması, bireysel sorulara verilen yanıtlarda önemli ölçüde daha az hata olduğunu gösterdi ve bu da CoVe'nin istemin nihai çıktısını önemli ölçüde iyileştirmesine izin verdi. Liste tabanlı sorunlar için CoVe, doğruluk oranını iki katından fazla artırarak hata oranını büyük ölçüde azaltabilir. Daha karmaşık Soru-Cevap senaryoları için bu yöntem doğruluk oranını %23 oranında artırabilir. Ancak, daha uzun içerik için ekibin doğrulama yanıtlarındaki tutarsızlıkları kontrol etmesi gerekir.
- 2

