2026-04-29
Mistral 推出 Medium 3.5:256K context、SWE-Bench Verified 77.6%
Mistral Medium 3.5 是 128B 參数密集模型、256K context。Mistral 同时为 Vibe 加入云端 remote agent 與 Le Chat 的 Work Mode。
Mistral 推出 Medium 3.5 — 128B 參数密集模型,256K context window — SWE-Bench Verified 报告分数 77.6%。同步的还有:Vibe(Mistral 的 CLI)加入云端 remote agent,跑在隔离 GPU sandbox,支援平行 session 與本地↔云端 state 保留;Le Chat 加入 Work Mode 处理多步驟跨工具流程,含 human-in-the-loop 核可。
实战筆记
來自開放權重友善的廠商(Mistral 一直在較低層级释出開源權重)77.6% SWE-Bench Verified,是 Claude/GPT 之外、可信的自託管 agentic coding 替代。
对你而言为何重要:如果你已经跑 LiteLLM 路由的本地 stack(这个专案就是这个架构),Mistral Medium 3.5 — 等權重或託管 endpoint 稳定后 — 给你 Qwen 系列以外另一个值得 routing 的本地 agent 选項。256K context 对多数 agentic coding session 已经綽綽有餘。