2026-04-29
Mistral 推出 Medium 3.5:256K context、SWE-Bench Verified 77.6%
Mistral Medium 3.5 是 128B 參數密集模型、256K context。Mistral 同時為 Vibe 加入雲端 remote agent 與 Le Chat 的 Work Mode。
Mistral 推出 Medium 3.5 — 128B 參數密集模型,256K context window — SWE-Bench Verified 報告分數 77.6%。同步的還有:Vibe(Mistral 的 CLI)加入雲端 remote agent,跑在隔離 GPU sandbox,支援平行 session 與本地↔雲端 state 保留;Le Chat 加入 Work Mode 處理多步驟跨工具流程,含 human-in-the-loop 核可。
實戰筆記
來自開放權重友善的廠商(Mistral 一直在較低層級釋出開源權重)77.6% SWE-Bench Verified,是 Claude/GPT 之外、可信的自託管 agentic coding 替代。
對你而言為何重要:如果你已經跑 LiteLLM 路由的本地 stack(這個專案就是這個架構),Mistral Medium 3.5 — 等權重或託管 endpoint 穩定後 — 給你 Qwen 系列以外另一個值得 routing 的本地 agent 選項。256K context 對多數 agentic coding session 已經綽綽有餘。