05:13
10月12日にThe Decoderが報告したように、Meta AIの研究者は、ChatGPTなどのチャットボットの幻覚の問題を大幅に軽減できるプロンプトベースの方法であるChain-of-Validation(CoVe)を提案しました。 CoVeを使用すると、チャットボットは最初にプロンプトに応答し、次にそれらの出力に基づいて質問を生成してステートメントを検証します。 これらの「検証の質問」は、最初の入力とは独立した新しいヒントとして実行され、最初の出力からエラーメッセージが取得されないようにします。 最後に、言語モデルは、個別に収集されたファクトに基づいて最初の入力を検証します。 すべてのテストはLlama 65 Bを使用して行われました。 研究チームの調査では、個々の質問に対する回答に含まれるエラーが大幅に少なくなり、CoVeはプロンプトの最終出力を大幅に改善することができました。 リストベースの問題の場合、CoVeは正解率を2倍以上にすることができ、エラー率を大幅に低減します。 より複雑なQ&Aシナリオでも、この方法で正解率を23%向上させることができます。 ただし、コンテンツが長い場合でも、チームは検証の回答に不整合がないか確認する必要があります。
- 2

