Qwen3.5-122B-A10B — 大型 MoE 高级推理

Qwen3.5-122B-A10B 是大型 MoE 模型,适合复杂推理、多步规划和深度分析。在浏览器中免费试用。

直接开聊
Qwen3.5-122B-A10B
在线
Thinking

Qwen3.5-122B-A10B 已经选好

这个页面默认就用 Qwen3.5-122B-A10B。Large MoE model tuned for harder reasoning, multi-step plans, and detailed answers.

先选模型,再决定要不要联网搜索或打开 Thinking,然后直接用真实问题开聊。
MoE
分析

可以直接试这些问题

通过 OpenRouter 免费使用。

总参数
122B
激活参数
10B
上下文
262K 原生
许可证
Apache 2.0
概览

MoE 阵列的最佳平衡点

Qwen3.5-122B-A10B 位于紧凑型 35B-A3B 和旗舰级 397B-A17B 之间。每 token 激活 10B 参数——推理深度大幅超越 35B-A3B——同时推理成本远低于旗舰。对于大多数生产级工作负载,这个模型击中了最优的成本质量平衡点。

深度专家路由

每 token 10B 激活参数,推理深度大幅超越小型 MoE。

生产就绪

质量足以应对复杂任务,成本适合 API 级别部署。

长文本质量

在长输出和多轮对话中保持连贯性和准确性。

Qwen3.5-122B-A10B Benchmark

Qwen3.5-122B-A10B 与相近模型的 benchmark 对比。

Qwen3.5-35B-A3B

Compact MoE model, also the base model behind Qwen3.5-Flash.

更新于 2026-04-02
MMLU-Pro
85.3
GPQA / GPQA-family
84.2
LiveCodeBench v6
74.6

Qwen3.5-122B-A10B

Mid-tier MoE model for deeper reasoning and agent tasks.

更新于 2026-04-02
MMLU-Pro
86.7
GPQA / GPQA-family
86.6
LiveCodeBench v6
78.9

Qwen3.5-397B-A17B

Flagship open-weight Qwen3.5 model, also the base model behind Qwen3.5-Plus.

更新于 2026-04-02
MMLU-Pro
87.8
GPQA / GPQA-family
88.4
LiveCodeBench v6
83.6

分数来自公开模型卡和 qwen.ai 发布页。Hosted 模型标注了对应的开源基线。

更新于 2026-04-02
适用场景

Qwen3.5-122B-A10B 最擅长什么

当任务需要持续推理、深度分析或高质量结构化输出时,这个模型表现最佳。

多步规划

将复杂问题拆解为可执行步骤和可靠的执行方案。

研究与分析

深入分析研究论文、财务报告和技术文档。

高级编程

处理多文件重构、架构决策和复杂调试。

长篇写作

在数千字的输出中保持连贯的文章、报告和文档。

数据解读

分析数据集,解释规律,从结构化数据生成洞察。

Agent 工作流

驱动需要强推理的多工具智能体任务编排。

常见问题

Qwen3.5-122B-A10B 常见问题

关于大型 MoE 模型的常见问题。

1

122B-A10B 和 35B-A3B 相比如何?

122B-A10B 每 token 激活参数是 35B-A3B 的 3 倍多(10B vs 3B),专家池也大得多(122B vs 35B)。在复杂多步任务上推理明显更强。

2

什么时候该用 397B?

当你需要绝对最高推理质量且愿意承担更高计算成本时用 397B-A17B。大多数生产场景下,122B-A10B 以更低成本提供优秀质量。

3

可以自己部署吗?

可以,但需要多 GPU 配置或大显存服务器。量化版本可降低需求。通过 vLLM 云端部署是最常见的生产方案。

4

适合编程任务吗?

适合。122B-A10B 能很好地处理复杂代码库、多文件推理和架构级决策——在编程方面明显强于 Dense 模型。

5

122B-A10B 需要多少显存?

Q4 量化约需 40-60 GB。大多数用户在多卡环境或 2-4 块 GPU 的云实例上运行。

6

122B-A10B 适合生产环境吗?

适合。它在质量和成本之间取得了很好的平衡,是 35B-A3B 和旗舰 397B-A17B 之间的理想中间选择。

7

122B-A10B 支持工具调用吗?

支持。所有 Qwen 3.5 模型都支持函数调用。122B-A10B 在多步工具链上的可靠性优于更小的模型。

8

122B-A10B 支持多长上下文?

Qwen3.5-122B-A10B 支持 262,144 原生 token,在兼容的推理栈里还能进一步扩展。