OpenAIは「言語モデルが幻覚を引き起こす理由」を発表し、AIの幻覚の根本原因を説明し、それを減らすための解決策を提案しました。



- 言語モデルは、標準的なトレーニングと評価手順が不確実性を認めることよりも推測を報いるため、幻覚を引き起こします。ほとんどの
WHY-1.36%
ROOT-2.46%
原文表示
post-image
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 8
  • リポスト
  • 共有
コメント
0/400
AltcoinMarathonervip
· 09-08 10:19
興味深い研究... マラソンの23マイルのように、正直なところ、私たちはまだAIの不確実性の段階を乗り越えようとしています。
原文表示返信0
GasWastingMaximalistvip
· 09-05 22:36
毎日幻覚を見て、やっていけるの?
原文表示返信0
TideRecedervip
· 09-05 22:35
私が推測したことはすべて正しい、ハハハ
原文表示返信0
WinterWarmthCatvip
· 09-05 22:31
次回はAIに無駄なことを言わせないでください。
原文表示返信0
AirdropLickervip
· 09-05 22:20
あはは、AIも自己救済を始めた。
原文表示返信0
ZKProofstervip
· 09-05 22:13
*技術的に*驚くべきことではありません。これが私たちが正式な確認プロトコルを必要とする理由です、ため息。
原文表示返信0
GasFeeWhisperervip
· 09-05 22:10
この無駄話の癖は私も直せない
原文表示返信0
  • ピン
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)