05:13
Comme l’a rapporté The Decoder le 12 octobre, les chercheurs de Meta AI ont proposé une méthode basée sur les rapides, la chaîne de vérification (CoVe), qui peut réduire considérablement les problèmes d’hallucination dans les chatbots tels que ChatGPT. Avec CoVe, le chatbot répond d’abord aux invites, puis génère des questions basées sur ces sorties pour valider les déclarations. Ces « questions de validation » sont ensuite exécutées sous forme de nouveaux indices indépendants de la première entrée pour éviter que des messages d’erreur ne soient extraits de la première sortie. Enfin, le modèle linguistique valide la première entrée sur la base de faits collectés individuellement. Tous les tests ont été effectués à l’aide du lama 65 B. Les recherches de l’équipe de recherche ont montré qu’il y avait beaucoup moins d’erreurs contenues dans les réponses aux questions individuelles, ce qui a permis à CoVe d’améliorer considérablement le résultat final de l’invite. Pour les problèmes basés sur des listes, CoVe peut plus que doubler le taux de précision, ce qui réduit considérablement le taux d’erreur. Pour les scénarios de questions-réponses plus complexes, cette méthode peut encore améliorer le taux de précision de 23%. Cependant, pour un contenu plus long, l’équipe doit toujours vérifier les incohérences dans les réponses de validation.
- 2

