👀 家人們,每天看行情、刷大佬觀點,卻從來不開口說兩句?你的觀點可能比你想的更有價值!
廣場新人 & 回歸福利正式上線!不管你是第一次發帖還是久違回歸,我們都直接送你獎勵!🎁
每月 $20,000 獎金等你來領!
📅 活動時間: 長期有效(月底結算)
💎 參與方式:
用戶需爲首次發帖的新用戶或一個月未發帖的回歸用戶。
發帖時必須帶上話題標籤: #我在广场发首帖 。
內容不限:幣圈新聞、行情分析、曬單吐槽、幣種推薦皆可。
💰 獎勵機制:
必得獎:發帖體驗券
每位有效發帖用戶都可獲得 $50 倉位體驗券。(注:每月獎池上限 $20,000,先到先得!如果大家太熱情,我們會繼續加碼!)
進階獎:發帖雙王爭霸
月度發帖王: 當月發帖數量最多的用戶,額外獎勵 50U。
月度互動王: 當月帖子互動量(點讚+評論+轉發+分享)最高的用戶,額外獎勵 50U。
📝 發帖要求:
帖子字數需 大於30字,拒絕純表情或無意義字符。
內容需積極健康,符合社區規範,嚴禁廣告引流及違規內容。
💡 你的觀點可能會啓發無數人,你的第一次分享也許就是成爲“廣場大V”的起點,現在就開始廣場創作之旅吧!
Mistral 推出 Mistral 3:新一代企業級與邊緣 AI 開源模型
重點摘要
Mistral 剛剛發布了 Mistral 3,一個全新家族的 10 個開放權重模型,設計可運行於從消費級雲端到筆記型電腦、無人機及機器人等各種設備上。
AI 新創公司 Mistral 發布了最新一代的模型 Mistral 3,包含三款緊湊高效能的密集模型,分別為 14B、8B 和 3B 參數,以及目前最先進的模型 Mistral Large 3——這是一款稀疏專家混合系統,使用 41B 個活躍參數和 675B 個總參數進行訓練。所有模型均採用 Apache 2.0 授權,開源提供多種壓縮格式,支援分散式 AI 應用。
Ministral 模型設計著重於卓越的效能與成本效率,而 Mistral Large 3 則定位為領先的指令微調開源模型之一。Mistral Large 3 在 3,000 顆 NVIDIA H200 GPU 上從零開始訓練,是自 Mixtral 系列以來公司首次發布的專家混合模型,也是預訓練技術的一大突破。經後訓練後,該模型在一般提示下可媲美頂尖指令微調開放權重模型,並展現先進的圖片理解及優異的多語言對話能力。
Mistral Large 3 在 LMArena 排行榜首次亮相即獲得 #2 in the OSS non-reasoning models category and #6 的總排名。基礎版與指令微調版皆以 Apache 2.0 授權釋出,為企業及開發者客製化提供堅實平台,未來還計畫推出推理版本。
Mistral 與 NVIDIA、vLLM 及 Red Hat 合作提升 Mistral 3 的可及性與效能
透過與 vLLM 和 Red Hat 的合作,Mistral Large 3 已大幅提升對開源社群的可及性。NVFP4 格式的檢查點經 llm-compressor 優化,可在 Blackwell NVL72 系統或單一 8×A100 或 8×H100 節點上高效執行,使用 vLLM。
先進開源 AI 模型的開發仰賴硬體與軟體的深度優化,這需與 NVIDIA 合作完成。所有 Mistral 3 模型(包含 Large 3 與 Ministral 3)皆在 NVIDIA Hopper GPU 上訓練,利用高頻寬 HBM3e 記憶體以應對大規模工作負載。NVIDIA 的協同設計方法結合硬體、軟體與模型,讓 Mistral 3 系列透過 TensorRT-LLM 與 SGLang 實現高效能低精度推論。
為了支援 Large 3 的稀疏專家混合架構,NVIDIA 實作了 Blackwell 注意力和 MoE 核心,新增 prefill/decode 分離服務,並合作開發 speculative decoding,使開發者能在 GB200 NVL72 系統及其他平台上處理長上下文、高吞吐量的工作負載。Ministral 模型亦針對 DGX Spark、RTX PC 和筆電以及 Jetson 裝置最佳化,能從資料中心到邊緣應用,提供一致的高效能體驗。Mistral 感謝 vLLM、Red Hat 與 NVIDIA 的支持與合作。
Ministral 3:專為邊緣與本地部署打造的先進 AI 效能
Ministral 3 系列專為邊緣與本地部署設計,提供 3B、8B 和 14B 三種參數規格。每一規格皆有基礎版、指令版和推理版,全部支援圖片理解,並以 Apache 2.0 授權釋出。結合原生多模態與多語言能力,Ministral 3 家族為企業與開發者應用帶來多元解決方案。
該系列在開源模型中展現極佳的效能/成本比,指令版在生成 token 數大幅減少的同時,效能達到或超越同類模型。當準確度為首要考量時,推理版可進行更深層計算,以在其權重級別內達到領先精度,例如 14B 模型在 AIME ’25 測試中達到 85%。
目前可透過 Mistral AI Studio、Amazon Bedrock、Azure Foundry、Hugging Face (Large 3 與 Ministral)、Modal、IBM WatsonX、OpenRouter、Fireworks、Unsloth AI 及 Together AI 存取 Mistral 3,未來也將登上 NVIDIA NIM 及 AWS SageMaker。
Mistral 仍為歐洲 AI 模型生態系統與開源倡議的領導貢獻者,儘管其最新旗艦模型在效能、速度及成本等方面仍不及業界頂尖競爭者。較小的 Ministral 變體或許更具實用性,為不同應用場景與多元設備部署提供彈性選擇。