OpenAI опублікував "Чому мовні моделі галюцінують", пояснюючи корінні причини галюцинацій ШІ та пропонуючи рішення для їх зменшення



- Мовні моделі галюцинують, тому що стандартні процедури навчання та оцінювання винагороджують здогадки, а не визнання невизначеності, при цьому більшість
WHY4.2%
ROOT0.25%
Переглянути оригінал
post-image
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 8
  • Репост
  • Поділіться
Прокоментувати
0/400
AltcoinMarathonervip
· 10год тому
цікаве дослідження... як на милі 23 під час марафону, ми все ще продовжуємо долати фазу невизначеності в AI, чесно кажучи
Переглянути оригіналвідповісти на0
GasWastingMaximalistvip
· 09-05 22:36
Щодня ілюзії, чи можливо?
Переглянути оригіналвідповісти на0
TideRecedervip
· 09-05 22:35
Я вгадав все правильно, ха-ха-ха
Переглянути оригіналвідповісти на0
WinterWarmthCatvip
· 09-05 22:31
Наступного разу навчіть ШІ не вигадувати.
Переглянути оригіналвідповісти на0
AirdropLickervip
· 09-05 22:20
Ахаха, навіть штучний інтелект почав самопорятунок.
Переглянути оригіналвідповісти на0
ZKProofstervip
· 09-05 22:13
*технічно* не дивно. ось чому нам потрібні формальні протоколи верифікації smh
Переглянути оригіналвідповісти на0
GasFeeWhisperervip
· 09-05 22:10
Цю маячню я теж не можу виправити
Переглянути оригіналвідповісти на0
  • Закріпити