复杂推理
多步逻辑、数学证明和精密问题求解。
Qwen3.5-397B-A17B 是 Qwen 3.5 旗舰模型,为最高难度任务提供最强推理能力。免费体验。
这个页面默认就用 Qwen3.5-397B-A17B。Flagship large-scale Qwen 3.5 model for demanding reasoning and long-form tasks.
可以直接试这些问题
通过 OpenRouter 免费使用。
Qwen3.5-397B-A17B 是 Qwen 3.5 公开开源里体量最大的一档。它公开发布的分数在推理、编程、搜索代理和多语言这些高难任务上都很强;而它的 hosted 对应版 Qwen3.5-Plus 则额外带了 1M 默认上下文和更多生产特性。
这条模型当前公开的 MMLU-Pro 为 87.8,GPQA 为 88.4,LiveCodeBench v6 为 83.6。
397B 总参数提供庞大的知识库供专家路由使用。
完整 Apache 2.0 许可——下载、微调、部署无限制。
Qwen3.5-397B-A17B 与相近模型的 benchmark 对比。
Mid-tier MoE model for deeper reasoning and agent tasks.
Flagship open-weight Qwen3.5 model, also the base model behind Qwen3.5-Plus.
Hosted version built on Qwen3.5-397B-A17B with additional tooling and a 1M context window.
Scores reference the Qwen3.5-397B-A17B base model.
分数来自公开模型卡和 qwen.ai 发布页。Hosted 模型标注了对应的开源基线。
更新于 2026-04-02当你需要最高质量的输出和推理深度时使用旗舰模型。
多步逻辑、数学证明和精密问题求解。
架构设计、复杂重构和跨仓库推理。
处理和推理研究论文、数据集和技术内容。
商业分析、决策框架和全面项目规划。
具有深度和细腻感的高质量长篇创意内容。
当你需要评估基准上的绝对最高分时。
关于旗舰模型的常见问题。
它是本站展示的公开开源 Qwen3.5 模型里体量最大、公开 benchmark 也最强的一档。但更小的模型仍然可能更快、更省钱,也更容易运行。
需要大量基础设施——多张高端 GPU 和大显存。大多数用户通过 OpenRouter 等云 API 访问。
Qwen 发布的 benchmark 表把它放到了多款前沿闭源模型旁边做对比。具体差距还是要看你关心的是哪一种 benchmark 和真实工作流。
Qwen3.5-Plus 以更简单的部署提供强劲的全面性能。当你特别需要最高推理上限时才用 397B。
BF16 全精度需要 200+ GB。量化版本可在 4-8 块 GPU 上运行。最常见的方式是通过 vLLM 进行云端部署。
Plus 是基于 397B-A17B 的 hosted 版本,额外加了生产工具和 1M 上下文窗口。397B-A17B 是可以下载的开源权重版本。
简单问答、文本起草或模板生成用更小的模型(9B、27B)更快更便宜。只有当你需要最深的推理或最好的代码质量时才选 397B-A17B。
支持。所有 Qwen 3.5 模型都支持函数调用。397B-A17B 在需要长链路推理的工具使用场景里尤其强。