💥 Gate廣場活動: #PTB创作大赛# 💥
在 Gate廣場發布與 PTB、CandyDrop 第77期或 Launchpool 活動 相關的原創內容,即有機會瓜分 5,000 PTB 獎勵!
CandyDrop 第77期:CandyDrop x PTB 👉 https://www.gate.com/zh/announcements/article/46922
PTB Launchpool 火熱進行中: 👉https://www.gate.com/zh/announcements/article/46934
📅 活動時間:2025年9月10日 12:00 – 9月14日24:00 UTC +8
📌 參與方式:
發布原創內容,主題需與 PTB、CandyDrop 或 Launchpool 相關
內容不少於 80 字
帖子添加話題: #PTB创作大赛#
附上 CandyDrop 或 Launchpool 參與截圖
🏆 獎勵設置:
🥇 一等獎(1名):2,000 PTB
🥈 二等獎(3名):800 PTB/人
🥉 三等獎(2名):300 PTB/人
📄 注意事項:
內容必須原創,禁止抄襲或刷量
獲獎者需完成 Gate 廣場身分認證
活動最終解釋權歸 Gate 所有
爲什麼人工智能會產生幻覺?OpenAI的研究
語言模型會產生幻覺,因爲標準的訓練和評估程序鼓勵猜測而不是承認不確定性。這在OpenAI的研究論文中提到。
在公司中給出了以下問題的定義:
例如,當研究人員問“廣泛傳播的聊天機器人”關於亞當·陶曼·卡萊的博士論文題目(和文章作者)時,它自信地給出了三個不同的答案,而沒有一個是正確的。當問到他的生日時,人工智能給出了三個錯誤的日期。
根據OpenAI的觀點,幻覺的存在部分是因爲現代評估方法設定了錯誤的激勵,使得神經網路"猜測"答案中的下一個符號。
作爲類比,舉了一個例子,即當一個人不知道測試問題的正確答案時,但可以猜測並偶然選擇正確答案。
![](http://img-cdn.gateio.im/social/moments-ea976fc9eb9ecf1547b0d54a0cda8862019283746574839201兩個模型答案的正確性比較。資料來源:OpenAI。
從準確性的角度來看,較舊的 OpenAI 模型 — o4-mini — 的表現稍微好一些。然而,它的錯誤率明顯高於 GPT-5,因爲在不確定情況下的戰略性猜測提高了準確性,但也增加了幻覺的數量。
原因與解決方案
語言模型最初通過“預訓練”來訓練——這是在大量文本中預測下一個單詞的過程。與傳統的機器學習任務不同,這裏沒有附加在每個聲明上的“真/假”標籤。模型只能看到正面的語言示例,並且必須近似總體分布。
公司提供了另一個例子。在圖像識別中,如果數百萬張貓和狗的照片被相應標記,算法就會學會可靠地對它們進行分類。但是,如果每張寵物的照片都按照出生日期進行分配,這個任務總是會導致錯誤,無論算法多麼先進。
同樣,文本也是如此——拼寫和標點遵循固定的規律,因此隨着規模的增長,錯誤會消失。
研究人員聲稱,僅僅引入“考慮不確定性的幾個新測試”是不夠的。相反,“基於精度的廣泛使用的評估需要更新,以使其結果排除猜測的嘗試。”
我們提醒,在五月份,ForkLog曾報道,幻覺仍然是人工智能的主要問題。