在线体验 Qwen 3.5 和 Qwen 3.6 — 即开即用

在浏览器中直接使用 Qwen 系列模型。提问、写代码、联网搜索、深度思考,一站搞定。

Qwen AI 对话
在线
先选模型,再决定要不要联网搜索或打开 Thinking,然后直接用真实问题开聊。

可以直接试这些问题

直接在浏览器里试,再打开模型页查看参数、benchmark 和适用场景。

模型数量
8
上下文
262K 到 1M
可用形态
开源 + Hosted
架构
Dense + MoE

Qwen 模型 Benchmark 参考

各模型的公开 benchmark 分数。Hosted 模型(Flash、Plus)标注了对应的开源基线模型。

Qwen3.5-9B

Light dense model for quick prompts and lightweight coding.

更新于 2026-04-02
MMLU-Pro
82.5
GPQA / GPQA-family
81.7
LiveCodeBench v6
65.6

Qwen3.5-27B

Balanced dense model with better reasoning and coding depth.

更新于 2026-04-02
MMLU-Pro
86.1
GPQA / GPQA-family
85.5
LiveCodeBench v6
80.7

Qwen3.5-35B-A3B

Compact MoE model, also the base model behind Qwen3.5-Flash.

更新于 2026-04-02
MMLU-Pro
85.3
GPQA / GPQA-family
84.2
LiveCodeBench v6
74.6

Qwen3.5-Flash

Hosted

Hosted version built on Qwen3.5-35B-A3B with additional tooling and a 1M context window.

Scores reference the Qwen3.5-35B-A3B base model.

更新于 2026-04-02
MMLU-Pro
85.3
GPQA / GPQA-family
84.2
LiveCodeBench v6
74.6

Qwen3.5-122B-A10B

Mid-tier MoE model for deeper reasoning and agent tasks.

更新于 2026-04-02
MMLU-Pro
86.7
GPQA / GPQA-family
86.6
LiveCodeBench v6
78.9

Qwen3.5-397B-A17B

Flagship open-weight Qwen3.5 model, also the base model behind Qwen3.5-Plus.

更新于 2026-04-02
MMLU-Pro
87.8
GPQA / GPQA-family
88.4
LiveCodeBench v6
83.6

Qwen3.5-Plus

Hosted

Hosted version built on Qwen3.5-397B-A17B with additional tooling and a 1M context window.

Scores reference the Qwen3.5-397B-A17B base model.

更新于 2026-04-02
MMLU-Pro
87.8
GPQA / GPQA-family
88.4
LiveCodeBench v6
83.6

Qwen3.6-Plus

New

Current Qwen 3.6 hosted release with agentic coding, stronger tool use, and multimodal reasoning.

1M default context window with preserve_thinking support.

更新于 2026-04-02
MMLU-Pro
88.5
GPQA / GPQA-family
90.4
LiveCodeBench v6
87.1

Q-Chat 核心特性

从日常对话到深度推理,Q-Chat 覆盖 Qwen 系列模型的各种使用场景。

Dense 与 MoE 双架构

Qwen 3.5 提供 Dense 模型(9B、27B)应对低延迟场景,以及 MoE 模型(35B-A3B、122B-A10B、397B-A17B)应对深度推理需求。

最高 1M 上下文窗口

开源 Qwen 3.5 模型支持 262K 原生 token。Hosted 模型(Flash、Plus、Qwen3.6-Plus)默认扩展到 1M。

思考模式

对复杂任务启用逐步推理——调试、对比分析、多步规划——在需要深度思考时获得更好的答案。

Qwen 3.6:智能体工作流

Qwen3.6-Plus 在 Qwen 3.5 的基础上增加了智能体编程、更强的工具调用和多模态推理,适合需要模型自主规划并执行的多步任务。

开源权重 + Hosted API

Qwen 3.5 开源模型使用 Apache 2.0,可在任何环境运行。Hosted 模型(Flash、Plus、Qwen3.6-Plus)额外提供内置工具和托管基础设施。

多语言与多模态

支持 100+ 语言的强劲表现。Qwen3.6-Plus 还能在同一对话中处理图片和文档。

常见问题

常见问题

关于 Q-Chat 和 Qwen 系列模型的常见问题。

1

Q-Chat 是什么?

Q-Chat 是一个独立产品,让你通过网页界面使用 Qwen 系列 AI 模型。它与阿里云及 Qwen 官方团队无关。

2

应该先选哪个模型?

日常任务推荐 Qwen3.5-9B 或 Flash;复杂推理和编程推荐 Qwen3.5-122B-A10B 或 397B-A17B;综合能力最强选 Qwen3.5-Plus 或 Qwen3.6-Plus。

3

可以免费使用吗?

可以。每个账号都会拿到 5 个免费积分用于试用 Q-Chat。积分用完后,如果还想继续使用更高消耗的模型、联网搜索和思考模式,需要充值或订阅。若你想自己部署,开源版 Qwen 3.5 仍然是 Apache 2.0。

4

Qwen 3.5 和 Qwen 3.6 有什么区别?

Qwen 3.6 在 Qwen 3.5 基础上进化。Qwen3.6-Plus 增加了智能体编程、更强的工具调用、多模态推理和 1M 默认上下文窗口。Qwen 3.5 则有更多模型尺寸和开源权重可选。

5

可以本地运行 Qwen 3.5 吗?

可以。开源 Qwen 3.5 模型支持 Ollama、vLLM、llama.cpp 和 Hugging Face Transformers。具体硬件要求取决于模型大小和量化级别。

6

Qwen 支持多长的上下文?

开源 Qwen 3.5 模型支持 262K 原生 token,可通过兼容框架扩展到约 1M。Hosted 模型(Flash、Plus、Qwen3.6-Plus)默认支持 1M 上下文。

7

什么是思考模式?

思考模式让模型在回答前逐步推理。对调试、数学、多步分析等复杂任务能显著提升准确率。你可以在聊天中随时开关。

8

Dense 和 MoE 模型有什么区别?

Dense 模型(9B、27B)每个 token 使用全部参数,简单且延迟稳定。MoE 模型(35B-A3B、122B-A10B、397B-A17B)每个 token 只激活部分专家,推理更强但每 token 计算成本更低。

9

Qwen 3.5 能写代码吗?

能。所有 Qwen 3.5 模型都支持编程任务。简单代码用 Qwen3.5-9B 或 Flash 即可,复杂多文件项目推荐 Qwen3.5-Plus 或 Qwen3.6-Plus。

10

支持联网搜索吗?

支持。在本站聊天中可以开启联网搜索,让模型获取实时信息后再回答。适合查询时事、文档和事实核查。

最新 Qwen 指南

围绕 Qwen 3.5、Qwen 3.6、Ollama、Hugging Face、vLLM、GGUF 等主题的教程、对比和部署指南。

Qwen 3.5 API:通过 OpenRouter 和阿里云调用 Qwen 模型

Qwen 3.5 API:通过 OpenRouter 和阿里云调用 Qwen 模型

如何通过 API 访问 Qwen 3.5,包括 OpenRouter 和阿里云灵积(DashScope)。覆盖 API 密钥获取、Python 和 curl 代码示例、定价和模型 ID。

2026/04/03
QQ-Chat Team
Qwen 3.5 基准测试结果:各任务表现对比

Qwen 3.5 基准测试结果:各任务表现对比

全面解读 Qwen 3.5 在推理、编程、数学和多语言任务上的基准测试结果,与 GPT-4o、Claude、Llama 横向对比。

2026/04/03
QQ-Chat Team
Qwen 3.5 编程指南:最佳模型、技巧与示例

Qwen 3.5 编程指南:最佳模型、技巧与示例

哪个 Qwen 3.5 模型最适合编程?代码生成、调试和 IDE 工作流的实用指南。

2026/04/03
QQ-Chat Team
Qwen 3.5 GGUF:下载并本地运行量化模型

Qwen 3.5 GGUF:下载并本地运行量化模型

如何下载和运行 Qwen 3.5 GGUF 文件进行本地推理。覆盖量化等级、下载地址、llama.cpp 配置以及质量与性能的取舍。

2026/04/03
QQ-Chat Team
Qwen 3.5 Hugging Face:下载、部署与对话

Qwen 3.5 Hugging Face:下载、部署与对话

在 Hugging Face 上查找、下载和运行 Qwen 3.5 模型的完整指南。覆盖模型卡片、transformers 集成、推理示例和变体对比,适合搜索 qwen 3.5 huggingface 的用户。

2026/04/03
QQ-Chat Team
本地运行 Qwen 3.5:完整部署指南

本地运行 Qwen 3.5:完整部署指南

本地运行 Qwen 3.5 所需的一切:各模型硬件需求、Ollama/vLLM/llama.cpp/Transformers 部署方法及性能优化技巧。

2026/04/03
QQ-Chat Team
用 Unsloth 微调 Qwen 3.5:手把手教程

用 Unsloth 微调 Qwen 3.5:手把手教程

Unsloth 微调 Qwen 3.5 的完整指南,涵盖安装、LoRA 和 QLoRA 配置、训练参数设置,以及导出微调后的模型。

2026/04/03
QQ-Chat Team
如何用 vLLM 运行 Qwen 3.5:完整部署指南

如何用 vLLM 运行 Qwen 3.5:完整部署指南

使用 vLLM 部署 Qwen 3.5 模型的完整指南,覆盖安装、推理服务、模型变体选择与性能调优。适合需要高吞吐 vllm qwen3.5 部署的开发者。

2026/04/03
QQ-Chat Team
Qwen 3.5 vs Qwen 3.6:有什么变化,该选哪个

Qwen 3.5 vs Qwen 3.6:有什么变化,该选哪个

Qwen 3.5 和 Qwen 3.6 的详细对比,涵盖核心差异、功能升级、上下文窗口变化,以及如何根据实际需求选择版本。

2026/04/03
QQ-Chat Team
Qwen3.6-Plus API:如何接入和集成 Qwen 3.6

Qwen3.6-Plus API:如何接入和集成 Qwen 3.6

如何使用 Qwen3.6-Plus API — 接口格式、工具调用、集成技巧,面向正在用 Qwen 3.6 做开发的工程师。

2026/04/03
QQ-Chat Team
Qwen3.6-Plus 编程实测:什么时候比 Qwen3.5-Plus 更值

Qwen3.6-Plus 编程实测:什么时候比 Qwen3.5-Plus 更值

不谈空泛升级,只看 Qwen3.6-Plus 在真实编程任务里什么时候比 Qwen3.5-Plus 更顺手。

2026/04/03
QQ-Chat Team
Qwen3.6-Plus 的 1M 上下文到底有什么用

Qwen3.6-Plus 的 1M 上下文到底有什么用

不讲空话,只讲 Qwen3.6-Plus 的 1M 上下文在长文档、长对话和大仓库任务里到底改变了什么。

2026/04/03
QQ-Chat Team
Qwen3.6-Plus:功能亮点、使用场景及与 Qwen 3.5 的对比

Qwen3.6-Plus:功能亮点、使用场景及与 Qwen 3.5 的对比

Qwen3.6-Plus 带来了什么 — 智能体编程、1M 上下文、多模态推理 — 以及什么时候该选它而不是 Qwen 3.5。

2026/04/03
QQ-Chat Team
Qwen3.5 Ollama:什么时候适合本地跑,什么时候直接用网页更省事

Qwen3.5 Ollama:什么时候适合本地跑,什么时候直接用网页更省事

一篇先把方向讲清楚的 qwen3.5 ollama 入门页:大家在搜什么、本地和托管怎么选、下一步该看哪个 Qwen 页面。

2026/04/02
QQ-Chat Team