阿里悄悄放了個大招。


CoPaw-Flash-9B——基於Qwen3.5的AI Agent模型。9B參數,能跑在你自己電腦上。
厲害在哪?
部分benchmark和Qwen3.5-Plus(閉源大模型)打平了。
90億參數 vs 幾百億參數,分數差不多。
更讓我興奮的是CoPaw這個框架:
- 支持持久記憶(聊過的它記得)
- 多渠道連接(、飛書、Discord都能接)
- 本地部署,不用API費用
Qwen3.5的架構也很猛——總參數397B,每個token只激活17B。效率拉滿。
你不需要H100伺服器。一台MacBook可能就夠跑一個個人AI助手了。
我在想把我內容pipeline的一些中間步驟(資料清洗、格式轉換)挪到本地模型上,API費用能省一大半。
2026下半年,個人AI Agent可能會變成標配。
不過benchmark分數和實際體驗是兩回事。等我本地跑通了再說。
查看原文
post-image
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 留言
  • 轉發
  • 分享
留言
請輸入留言內容
請輸入留言內容
暫無留言