Qwen3.6-Plus
当前公开可用的 Qwen 3.6 hosted 模型,主打智能体编程、更强的工具调用、更锐利的多模态推理,以及 1M 默认上下文窗口。
在浏览器中直接使用 Qwen 系列模型。提问、写代码、联网搜索、深度思考,一站搞定。
可以直接试这些问题
直接在浏览器里试,再打开模型页查看参数、benchmark 和适用场景。
每款 Qwen 模型在速度、成本、上下文长度和推理深度之间都有不同取舍。打开模型页就能直接看 benchmark、适用场景和在线体验。
当前公开可用的 Qwen 3.6 hosted 模型,主打智能体编程、更强的工具调用、更锐利的多模态推理,以及 1M 默认上下文窗口。
快速轻量的 Dense 模型,适合日常对话、问答和简单编程。
均衡的 Dense 模型,适合长文本处理、分析和通用对话。
紧凑型 MoE 模型,适合推理密集型对话和结构化输出。
大型 MoE 模型,适合多步推理、规划和深度分析。
旗舰 MoE 模型,适合最高难度的推理和长文本任务。
速度优先的 hosted 路线,Alibaba Cloud 将它对应到 Qwen3.5-35B-A3B 这条公开基线。
更偏全能的 hosted 路线,Alibaba Cloud 将它对应到 Qwen3.5-397B-A17B 这条公开基线。
各模型的公开 benchmark 分数。Hosted 模型(Flash、Plus)标注了对应的开源基线模型。
Light dense model for quick prompts and lightweight coding.
Balanced dense model with better reasoning and coding depth.
Compact MoE model, also the base model behind Qwen3.5-Flash.
Hosted version built on Qwen3.5-35B-A3B with additional tooling and a 1M context window.
Scores reference the Qwen3.5-35B-A3B base model.
Mid-tier MoE model for deeper reasoning and agent tasks.
Flagship open-weight Qwen3.5 model, also the base model behind Qwen3.5-Plus.
Hosted version built on Qwen3.5-397B-A17B with additional tooling and a 1M context window.
Scores reference the Qwen3.5-397B-A17B base model.
Current Qwen 3.6 hosted release with agentic coding, stronger tool use, and multimodal reasoning.
1M default context window with preserve_thinking support.
从日常对话到深度推理,Q-Chat 覆盖 Qwen 系列模型的各种使用场景。
Qwen 3.5 提供 Dense 模型(9B、27B)应对低延迟场景,以及 MoE 模型(35B-A3B、122B-A10B、397B-A17B)应对深度推理需求。
开源 Qwen 3.5 模型支持 262K 原生 token。Hosted 模型(Flash、Plus、Qwen3.6-Plus)默认扩展到 1M。
对复杂任务启用逐步推理——调试、对比分析、多步规划——在需要深度思考时获得更好的答案。
Qwen3.6-Plus 在 Qwen 3.5 的基础上增加了智能体编程、更强的工具调用和多模态推理,适合需要模型自主规划并执行的多步任务。
Qwen 3.5 开源模型使用 Apache 2.0,可在任何环境运行。Hosted 模型(Flash、Plus、Qwen3.6-Plus)额外提供内置工具和托管基础设施。
支持 100+ 语言的强劲表现。Qwen3.6-Plus 还能在同一对话中处理图片和文档。
关于 Q-Chat 和 Qwen 系列模型的常见问题。
Q-Chat 是一个独立产品,让你通过网页界面使用 Qwen 系列 AI 模型。它与阿里云及 Qwen 官方团队无关。
日常任务推荐 Qwen3.5-9B 或 Flash;复杂推理和编程推荐 Qwen3.5-122B-A10B 或 397B-A17B;综合能力最强选 Qwen3.5-Plus 或 Qwen3.6-Plus。
可以。每个账号都会拿到 5 个免费积分用于试用 Q-Chat。积分用完后,如果还想继续使用更高消耗的模型、联网搜索和思考模式,需要充值或订阅。若你想自己部署,开源版 Qwen 3.5 仍然是 Apache 2.0。
Qwen 3.6 在 Qwen 3.5 基础上进化。Qwen3.6-Plus 增加了智能体编程、更强的工具调用、多模态推理和 1M 默认上下文窗口。Qwen 3.5 则有更多模型尺寸和开源权重可选。
可以。开源 Qwen 3.5 模型支持 Ollama、vLLM、llama.cpp 和 Hugging Face Transformers。具体硬件要求取决于模型大小和量化级别。
开源 Qwen 3.5 模型支持 262K 原生 token,可通过兼容框架扩展到约 1M。Hosted 模型(Flash、Plus、Qwen3.6-Plus)默认支持 1M 上下文。
思考模式让模型在回答前逐步推理。对调试、数学、多步分析等复杂任务能显著提升准确率。你可以在聊天中随时开关。
Dense 模型(9B、27B)每个 token 使用全部参数,简单且延迟稳定。MoE 模型(35B-A3B、122B-A10B、397B-A17B)每个 token 只激活部分专家,推理更强但每 token 计算成本更低。
能。所有 Qwen 3.5 模型都支持编程任务。简单代码用 Qwen3.5-9B 或 Flash 即可,复杂多文件项目推荐 Qwen3.5-Plus 或 Qwen3.6-Plus。
支持。在本站聊天中可以开启联网搜索,让模型获取实时信息后再回答。适合查询时事、文档和事实核查。
围绕 Qwen 3.5、Qwen 3.6、Ollama、Hugging Face、vLLM、GGUF 等主题的教程、对比和部署指南。

如何通过 API 访问 Qwen 3.5,包括 OpenRouter 和阿里云灵积(DashScope)。覆盖 API 密钥获取、Python 和 curl 代码示例、定价和模型 ID。

全面解读 Qwen 3.5 在推理、编程、数学和多语言任务上的基准测试结果,与 GPT-4o、Claude、Llama 横向对比。

哪个 Qwen 3.5 模型最适合编程?代码生成、调试和 IDE 工作流的实用指南。

如何下载和运行 Qwen 3.5 GGUF 文件进行本地推理。覆盖量化等级、下载地址、llama.cpp 配置以及质量与性能的取舍。

在 Hugging Face 上查找、下载和运行 Qwen 3.5 模型的完整指南。覆盖模型卡片、transformers 集成、推理示例和变体对比,适合搜索 qwen 3.5 huggingface 的用户。

本地运行 Qwen 3.5 所需的一切:各模型硬件需求、Ollama/vLLM/llama.cpp/Transformers 部署方法及性能优化技巧。

Unsloth 微调 Qwen 3.5 的完整指南,涵盖安装、LoRA 和 QLoRA 配置、训练参数设置,以及导出微调后的模型。

使用 vLLM 部署 Qwen 3.5 模型的完整指南,覆盖安装、推理服务、模型变体选择与性能调优。适合需要高吞吐 vllm qwen3.5 部署的开发者。

Qwen 3.5 和 Qwen 3.6 的详细对比,涵盖核心差异、功能升级、上下文窗口变化,以及如何根据实际需求选择版本。

如何使用 Qwen3.6-Plus API — 接口格式、工具调用、集成技巧,面向正在用 Qwen 3.6 做开发的工程师。

不谈空泛升级,只看 Qwen3.6-Plus 在真实编程任务里什么时候比 Qwen3.5-Plus 更顺手。

不讲空话,只讲 Qwen3.6-Plus 的 1M 上下文在长文档、长对话和大仓库任务里到底改变了什么。

Qwen3.6-Plus 带来了什么 — 智能体编程、1M 上下文、多模态推理 — 以及什么时候该选它而不是 Qwen 3.5。

一篇先把方向讲清楚的 qwen3.5 ollama 入门页:大家在搜什么、本地和托管怎么选、下一步该看哪个 Qwen 页面。