💥 Gate 廣場活動:#发帖赢代币TRUST 💥
在 Gate 廣場發布與 TRUST 或 CandyDrop 活動相關的原創內容,即有機會瓜分 13,333 枚 TRUST 獎勵!
📅 活動時間:2025年11月6日 – 11月16日 24:00(UTC+8)
📌 相關詳情:
CandyDrop 👉 https://www.gate.com/zh/announcements/article/47990
📌 參與方式:
1️⃣ 在 Gate 廣場發布原創內容,主題需與 TRUST 或 CandyDrop 活動相關;
2️⃣ 內容不少於 80 字;
3️⃣ 貼文添加話題: #发帖赢代币TRUST
4️⃣ 附上任意 CandyDrop 活動參與截圖。
🏆 獎勵設定(總獎池:13,333 TRUST)
🥇 一等獎(1名):3,833 TRUST / 人
🥈 二等獎(3名):1,500 TRUST / 人
🥉 三等獎(10名):500 TRUST / 人
📄 注意事項:
內容必須原創,禁止抄襲或灌水;
得獎者需完成 Gate 廣場身份認證;
活動最終解釋權歸 Gate 所有。
新研究指出:AI能力可能因測試存在缺陷而被高估
金十數據11月6日訊,一項新研究指出,評估人工智慧系統能力的方法往往誇大了人工智慧的性能,且缺乏科學嚴謹性。這項由牛津互聯網學院牽頭、聯合其他機構三十餘名研究人員開展的研究,考察了445項領先的人工智慧測試(稱為基準測試),這些測試常用於衡量人工智慧模型在不同主題領域的表現。研究指出,這些基礎測試可能缺乏可靠性,並質疑了眾多基準測試結果的有效性。研究稱,大量頂級基準測試未能明確其測試目標,令人擔憂地重複使用既有基準的數據和測試方法,且極少採用可靠的統計方法比較不同模型結果。牛津互聯網學院高級研究員、該研究的主要作者Adam Mahdi認為,這些基準測試可能會產生令人擔憂的誤導,他表示:「當我們要求人工智慧模型執行特定任務時,我們實際測量的往往是與目標完全不同的概念或構造。」另一位主要作者亦認為,即便是公信力強的基準測試,也常常被盲目信任,值得更深入的審查。