Q
Qwen/Qwen3.6-27B
模型介绍文件和版本分析
下载使用量0

Qwen3.6-27B

Qwen Chat

[!Note] 本仓库包含采用 Hugging Face Transformers 格式的后训练模型的权重及配置文件。

这些模型文件与 Hugging Face Transformers、vLLM、SGLang、KTransformers 等工具兼容。

继 2 月发布 Qwen3.5 系列之后,我们荣幸地推出 Qwen3.6 的首个开源权重版本。Qwen3.6 基于社区的直接反馈构建,以稳定性和实际应用价值为核心,为开发者提供更直观、响应更迅速且真正高效的编码体验。

Qwen3.6 亮点

本次发布带来了显著升级,尤其在以下方面:

  • 智能体编码能力(Agentic Coding):模型现在能更流畅、精准地处理前端工作流和仓库级代码推理任务。
  • 思维保留(Thinking Preservation):我们引入了一项新功能,可保留历史对话中的推理上下文,简化迭代开发过程并减少额外操作。

Benchmark Results

更多详情,请参阅我们的博客文章 Qwen3.6-27B。

模型概述

  • 类型:带视觉编码器的因果语言模型
  • 训练阶段:预训练与后训练
  • 语言模型
    • 参数数量:270 亿
    • 隐藏层维度:5120
    • 词嵌入维度:248320(含填充)
    • 层数:64
    • 隐藏层结构:16 × (3 × (门控 DeltaNet → 前馈网络) → 1 × (门控注意力 → 前馈网络))
    • 门控 DeltaNet:
      • 线性注意力头数量:V 为 48,QK 为 16
      • 头维度:128
    • 门控注意力:
      • 注意力头数量:Q 为 24,KV 为 4
      • 头维度:256
      • 旋转位置嵌入维度:64
    • 前馈网络:
      • 中间层维度:17408
    • 语言模型输出:248320(含填充)
    • MTP:采用多步训练
  • 上下文长度:原生支持 262,144 tokens,可扩展至 1,010,000 tokens。

基准测试结果

语言能力

Qwen3.5-27BQwen3.5-397B-A17BGemma4-31BClaude 4.5 OpusQwen3.6-35B-A3BQwen3.6-27B
编码智能体
SWE-bench Verified75.076.252.080.973.477.2
SWE-bench Pro51.250.935.757.149.553.5
SWE-bench Multilingual69.369.351.777.567.271.3
Terminal-Bench 2.041.652.542.959.351.559.3
SkillsBench Avg527.230.023.645.328.748.2
QwenWebBench106811861197153613971487
NL2Repo27.332.215.543.229.436.2
Claw-Eval Avg64.370.748.576.668.772.4
Claw-Eval Pass^346.248.125.059.650.060.6
QwenClawBench52.251.841.752.352.653.4
知识储备
MMLU-Pro86.187.885.289.585.286.2
MMLU-Redux93.294.993.795.693.393.5
SuperGPQA65.670.465.770.664.766.0
C-Eval90.593.082.692.290.091.4
STEM与推理
GPQA Diamond85.588.484.387.086.087.8
HLE24.328.719.530.821.424.0
LiveCodeBench v680.783.680.084.880.483.9
HMMT Feb 2592.094.888.792.990.793.8
HMMT Nov 2589.892.787.593.389.190.7
HMMT Feb 2684.387.977.285.383.684.3
IMOAnswerBench79.980.974.584.078.980.8
AIME2692.693.389.295.192.794.1

* SWE-Bench系列:内部智能体框架(bash + 文件编辑工具);temp=1.0,top_p=0.95,200K上下文窗口。我们修正了SWE-bench Pro公开集中的部分问题任务,并在优化后的基准上评估所有基线模型。
* Terminal-Bench 2.0:Harbor/Terminus-2测试框架;3小时超时,32 CPU/48 GB内存;temp=1.0,top_p=0.95,top_k=20,max_tokens=80K,256K上下文;5次运行平均值。
* SkillsBench:通过OpenCode在78个任务上评估(独立子集,排除依赖API的任务);5次运行平均值。
* NL2Repo:其他模型通过Claude Code评估(temp=1.0,top_p=0.95,max_turns=900)。
* QwenClawBench:真实用户分布的Claw智能体基准;temp=0.6,256K上下文。
* QwenWebBench:内部前端代码生成基准;双语(中英文),7个类别(Web设计、Web应用、游戏、SVG、数据可视化、动画和3D);自动渲染+多模态评判(代码/视觉正确性);BT/Elo评分体系。
* AIME 26:我们使用完整的2026年AIME(I & II),分数可能与Qwen 3.5说明中的不同。

视觉语言

Qwen3.5-27BQwen3.5-397B-A17BGemma4-31BClaude 4.5 OpusQwen3.6-35B-A3BQwen3.6-27B
STEM与谜题
MMMU82.385.080.480.781.782.9
MMMU-Pro75.079.076.970.675.375.8
MathVista mini87.8--79.3--86.487.4
DynaMath87.786.379.579.782.885.6
VlmsAreBlind96.9--87.2--96.697.0
通用视觉问答
RealWorldQA83.783.972.377.085.384.1
MMStar81.083.877.373.280.781.4
MMBenchEN-DEV-v1.192.6--90.9--92.892.3
SimpleVQA56.067.152.965.758.956.1
文档理解
CharXiv RQ79.580.867.968.578.078.4
CC-OCR81.082.075.776.981.981.2
OCRBench89.4--86.1--90.089.4
空间智能
ERQA60.567.557.546.861.862.5
CountBench97.897.296.190.696.197.8
RefCOCO avg90.992.3----92.092.5
EmbSpatialBench84.5------84.384.6
RefSpatialBench67.7--4.7--64.370.0
视频理解
VideoMME(带字幕)87.087.5--77.786.687.7
VideoMMMU82.384.781.684.483.784.4
MLVU85.986.7--81.786.286.6
MVBench74.677.6--67.274.675.5
视觉智能体
V*93.795.8--67.090.194.7
AndroidWorld64.2--------70.3

* 空白单元格(--)表示分数尚未公布或不适用。

快速开始

为实现便捷集成,我们建议通过API使用Qwen3.6。以下是通过兼容OpenAI的API使用Qwen3.6的指南。

部署Qwen3.6

Qwen3.6可通过主流推理框架以API形式部署。 下文将展示启动Qwen3.6模型兼容OpenAI API服务的示例命令。

[!Important] 不同框架的推理效率和吞吐量差异显著。 建议使用最新版本的框架,以确保最佳性能和兼容性。 对于生产工作负载或高吞吐量场景,强烈推荐使用SGLang、KTransformers或vLLM等专用部署引擎。

[!Important] 模型默认上下文长度为262,144 tokens。 若遇到内存不足(OOM)错误,可考虑减小上下文窗口。 但由于Qwen3.6利用扩展上下文处理复杂任务,建议保持至少128K tokens的上下文长度以保留其思考能力。

SGLang

SGLang 是一个用于大型语言模型和视觉语言模型的快速部署框架。 Qwen3.6推荐使用sglang>=0.5.10,可在全新环境中通过以下命令安装:

uv pip install sglang[all]

有关更多详情,请参见其文档。

以下操作将在 http://localhost:8000/v1 创建 API 端点:

  • 标准版:可使用以下命令创建 API 端点,该端点在 8 块 GPU 上采用张量并行,最大上下文长度为 262,144 tokens。

    python -m sglang.launch_server --model-path Qwen/Qwen3.6-27B --port 8000 --tp-size 8 --mem-fraction-static 0.8 --context-length 262144 --reasoning-parser qwen3
  • 工具调用:若要支持工具调用,可使用以下命令。

    python -m sglang.launch_server --model-path Qwen/Qwen3.6-27B --port 8000 --tp-size 8 --mem-fraction-static 0.8 --context-length 262144 --reasoning-parser qwen3 --tool-call-parser qwen3_coder
  • 多 Token 预测(MTP):推荐使用以下命令进行 MTP:

    python -m sglang.launch_server --model-path Qwen/Qwen3.6-27B --port 8000 --tp-size 8 --mem-fraction-static 0.8 --context-length 262144 --reasoning-parser qwen3 --speculative-algo NEXTN --speculative-num-steps 3 --speculative-eagle-topk 1 --speculative-num-draft-tokens 4

有关详细的部署指南,请参见 SGLang Qwen3.5 实用指南。

vLLM

vLLM 是一个用于大型语言模型(LLMs)的高吞吐量且内存高效的推理和服务引擎。 Qwen3.6 推荐使用 vllm>=0.19.0,可在全新环境中通过以下命令安装:

uv pip install vllm --torch-backend=auto

有关更多详细信息,请参见其文档。

以下操作将在 http://localhost:8000/v1 创建 API 端点:

  • 标准版:可使用以下命令创建 API 端点,其最大上下文长度为 262,144 个 token,并在 8 块 GPU 上使用张量并行。

    vllm serve Qwen/Qwen3.6-27B --port 8000 --tensor-parallel-size 8 --max-model-len 262144 --reasoning-parser qwen3 
  • 工具调用:要支持工具使用,可使用以下命令。

    vllm serve Qwen/Qwen3.6-27B --port 8000 --tensor-parallel-size 8 --max-model-len 262144 --reasoning-parser qwen3 --enable-auto-tool-choice --tool-call-parser qwen3_coder 
  • 多 token 预测(MTP):推荐使用以下命令进行 MTP:

    vllm serve Qwen/Qwen3.6-27B --port 8000 --tensor-parallel-size 8 --max-model-len 262144 --reasoning-parser qwen3 --speculative-config '{"method":"qwen3_next_mtp","num_speculative_tokens":2}'
  • 纯文本模式:以下命令会跳过视觉编码器和多模态分析,以释放内存用于额外的 KV 缓存:

    vllm serve Qwen/Qwen3.6-27B --port 8000 --tensor-parallel-size 8 --max-model-len 262144 --reasoning-parser qwen3 --language-model-only

有关详细的部署指南,请参见 vLLM Qwen3.5 部署指南。

KTransformers

KTransformers 是一个灵活的框架,可通过 CPU-GPU 异构计算体验前沿的 LLM 推理优化。 要使用 KTransformers 运行 Qwen3.6,请参见 KTransformers 部署指南。

Hugging Face Transformers

Hugging Face Transformers 包含一个轻量级服务器,可用于快速测试和中等负载部署。 运行 Qwen3.6 需要最新版本的 transformers:

pip install "transformers[serving]"

有关更多详细信息,请参见其文档。同时,请确保已安装torchvision和pillow。

然后,运行transformers serve以启动服务器,其API端点位于http://localhost:8000/v1;如果有可用的加速器,服务器会将模型部署到加速器上:

transformers serve Qwen/Qwen3.6-27B --port 8000 --continuous-batching

通过聊天补全 API 使用 Qwen3.6

聊天补全 API 可通过标准 HTTP 请求或 OpenAI SDK 访问。 此处,我们展示使用 OpenAI Python SDK 的示例。

开始前,请确保已安装该 SDK,并配置好 API 密钥和 API 基础 URL,例如:

pip install -U openai

# Set the following accordingly
export OPENAI_BASE_URL="http://localhost:8000/v1"
export OPENAI_API_KEY="EMPTY"

[!Tip] 建议使用以下采样参数组合进行生成

  • 通用任务思考模式:temperature=1.0, top_p=0.95, top_k=20, min_p=0.0, presence_penalty=0.0, repetition_penalty=1.0
  • 精准编码任务思考模式(如 WebDev):temperature=0.6, top_p=0.95, top_k=20, min_p=0.0, presence_penalty=0.0, repetition_penalty=1.0
  • 指令(非思考)模式:temperature=0.7, top_p=0.80, top_k=20, min_p=0.0, presence_penalty=1.5, repetition_penalty=1.0

请注意,不同推理框架对采样参数的支持情况可能存在差异。

[!Important] Qwen3.6 模型默认以思考模式运行,在生成最终响应前会先产生以 </think>\n...</think>\n\n 标识的思考内容。 如需关闭思考内容并获取直接响应,请参考此处的示例。

纯文本输入

from openai import OpenAI
# Configured by environment variables
client = OpenAI()

messages = [
    {"role": "user", "content": "Type \"I love Qwen3.6\" backwards"},
]

chat_response = client.chat.completions.create(
    model="Qwen/Qwen3.6-27B",
    messages=messages,
    max_tokens=81920,
    temperature=1.0,
    top_p=0.95,
    presence_penalty=0.0,
    extra_body={
        "top_k": 20,
    }, 
)
print("Chat response:", chat_response)

图像输入

from openai import OpenAI
# Configured by environment variables
client = OpenAI()

messages = [
    {
        "role": "user",
        "content": [
            {
                "type": "image_url",
                "image_url": {
                    "url": "https://qianwen-res.oss-accelerate.aliyuncs.com/Qwen3.5/demo/CI_Demo/mathv-1327.jpg"
                }
            },
            {
                "type": "text",
                "text": "The centres of the four illustrated circles are in the corners of the square. The two big circles touch each other and also the two little circles. With which factor do you have to multiply the radii of the little circles to obtain the radius of the big circles?\nChoices:\n(A) $\\frac{2}{9}$\n(B) $\\sqrt{5}$\n(C) $0.8 \\cdot \\pi$\n(D) 2.5\n(E) $1+\\sqrt{2}$"
            }
        ]
    }
]

chat_response = client.chat.completions.create(
    model="Qwen/Qwen3.6-27B",
    messages=messages,
    max_tokens=81920,
    temperature=1.0,
    top_p=0.95,
    presence_penalty=0.0,
    extra_body={
        "top_k": 20,
    }, 
)
print("Chat response:", chat_response)

视频输入

from openai import OpenAI
# Configured by environment variables
client = OpenAI()

messages = [
    {
        "role": "user",
        "content": [
            {
                "type": "video_url",
                "video_url": {
                    "url": "https://qianwen-res.oss-accelerate.aliyuncs.com/Qwen3.5/demo/video/N1cdUjctpG8.mp4"
                }
            },
            {
                "type": "text",
                "text": "How many porcelain jars were discovered in the niches located in the primary chamber of the tomb?"
            }
        ]
    }
]

# When vLLM is launched with `--media-io-kwargs '{"video": {"num_frames": -1}}'`,
# video frame sampling can be configured via `extra_body` (e.g., by setting `fps`).
# This feature is currently supported only in vLLM.
#
# By default, `fps=2` and `do_sample_frames=True`.
# With `do_sample_frames=True`, you can customize the `fps` value to set your desired video sampling rate.
chat_response = client.chat.completions.create(
    model="Qwen/Qwen3.6-27B",
    messages=messages,
    max_tokens=81920,
    temperature=1.0,
    top_p=0.95,
    presence_penalty=0.0,
    extra_body={
        "top_k": 20,
        "mm_processor_kwargs": {"fps": 2, "do_sample_frames": True},
    }, 
)

print("Chat response:", chat_response)

指令(或非思考)模式

[!Important] Qwen3.6 不正式支持 Qwen3 的软切换,即 /think 和 /nothink。

Qwen3.6 默认会在响应前进行思考。 您可以通过配置 API 参数,让模型不经过思考直接给出响应。 例如,

from openai import OpenAI
# Configured by environment variables
client = OpenAI()

messages = [
    {
        "role": "user",
        "content": [
            {
                "type": "image_url",
                "image_url": {
                    "url": "https://qianwen-res.oss-accelerate.aliyuncs.com/Qwen3.6/demo/RealWorld/RealWorld-04.png"
                }
            },
            {
                "type": "text",
                "text": "Where is this?"
            }
        ]
    }
]

chat_response = client.chat.completions.create(
    model="Qwen/Qwen3.6-27B",
    messages=messages,
    max_tokens=32768,
    temperature=0.7,
    top_p=0.8,
    presence_penalty=1.5,
    extra_body={
        "top_k": 20,
        "chat_template_kwargs": {"enable_thinking": False},
    }, 
)
print("Chat response:", chat_response)

[!Note] 若您使用的是阿里云模型平台(Model Studio)的API,除了修改 model 外,请使用 "enable_thinking": False,而非 "chat_template_kwargs": {"enable_thinking": False}。

保留思考过程

默认情况下,仅保留处理最新用户消息时生成的思考块,形成通常所说的交错式思考模式。 Qwen3.6 经过额外训练,能够保留并利用历史消息中的思考痕迹。 您可以通过设置 preserve_thinking 选项来启用此功能:

from openai import OpenAI
# Configured by environment variables
client = OpenAI()

messages = [...]

chat_response = client.chat.completions.create(
    model="Qwen/Qwen3.6-27B",
    messages=messages,
    max_tokens=32768,
    temperature=0.6,
    top_p=0.95,
    presence_penalty=0.0,
    extra_body={
        "top_k": 20,
        "chat_template_kwargs": {"preserve_thinking": True},
    }, 
)
print("Chat response:", chat_response)

[!Note] 若您使用的是阿里云模型 Studio 的 API,除了修改 model 外,请使用 "preserve_thinking": True,而非 "chat_template_kwargs": {"preserve_thinking": False}。

此功能在智能体场景中尤为实用,通过保留完整的推理上下文,有助于提升决策一致性,并且在多数情况下可减少重复推理,从而降低总体 Token 消耗。此外,它还能提高 KV 缓存的利用率,在思考模式与非思考模式下均能优化推理效率。

智能体使用方法

Qwen3.6 在工具调用能力方面表现出色。

Qwen-Agent

我们建议使用 Qwen-Agent,以便基于 Qwen3.6 快速构建智能体应用。

您可以通过 MCP 配置文件定义可用工具,也可以使用 Qwen-Agent 的集成工具,或自行集成其他工具。

import os
from qwen_agent.agents import Assistant

# Define LLM
# Using Alibaba Cloud Model Studio
llm_cfg = {
    # Use the OpenAI-compatible model service provided by DashScope:
    'model': 'qwen3.6-27b',
    'model_type': 'qwenvl_oai',
    'model_server': 'https://dashscope.aliyuncs.com/compatible-mode/v1',
    'api_key': os.getenv('DASHSCOPE_API_KEY'),

    'generate_cfg': {
        'use_raw_api': True,
        # When using Dash Scope OAI API, pass the parameter of whether to enable thinking mode in this way
        'extra_body': {
            'enable_thinking': True,
            'preserve_thinking': True,
        },
    },
}

# Using OpenAI-compatible API endpoint.
# functionality of the deployment frameworks and let Qwen-Agent automate the related operations.
#
# llm_cfg = {
#     # Use your own model service compatible with OpenAI API by vLLM/SGLang:
#     'model': 'Qwen/Qwen3.6-27B',
#     'model_type': 'qwenvl_oai',
#     'model_server': 'http://localhost:8000/v1',  # api_base
#     'api_key': 'EMPTY',
#
#     'generate_cfg': {
#         'use_raw_api': True,
#         # When using vLLM/SGLang OAI API, pass the parameter of whether to enable thinking mode in this way
#         'extra_body': {
#             'chat_template_kwargs': {'enable_thinking': True, 'preserve_thinking': True}
#         },
#     },
# }

# Define Tools
tools = [
    {'mcpServers': {  # You can specify the MCP configuration file
            "filesystem": {
                "command": "npx",
                "args": ["-y", "@modelcontextprotocol/server-filesystem", "/Users/xxxx/Desktop"]
            }
        }
    }
]

# Define Agent
bot = Assistant(llm=llm_cfg, function_list=tools)

# Streaming generation
messages = [{'role': 'user', 'content': 'Help me organize my desktop.'}]
for responses in bot.run(messages=messages):
    pass
print(responses)

# Streaming generation
messages = [{'role': 'user', 'content': 'Develop a dog website and save it on the desktop'}]
for responses in bot.run(messages=messages):
    pass
print(responses)

Qwen Code

Qwen Code 是一款开源的终端 AI 助手,专为 Qwen 模型优化。它能帮助您理解大型代码库、自动化繁琐工作,从而加快开发进度。

更多信息,请参阅 Qwen Code。

超长文本处理

Qwen3.6 原生支持最长 262,144 个 token 的上下文长度。 对于总长度(包括输入和输出)超过此限制的长文本任务,我们建议使用 RoPE 缩放技术(如 YaRN)来有效处理长文本。

目前已有多个推理框架支持 YaRN,例如 transformers、vllm、ktransformers 和 sglang。 通常,在支持的框架中启用 YaRN 有两种方法:

  • 修改模型配置文件: 在 config.json 文件中,将 text_config 里的 rope_parameters 字段修改为:

    {
        "mrope_interleaved": true,
        "mrope_section": [
            11,
            11,
            10
        ],
        "rope_type": "yarn",
        "rope_theta": 10000000,
        "partial_rotary_factor": 0.25,
        "factor": 4.0,
        "original_max_position_embeddings": 262144,
    }
  • 传递命令行参数:

    对于 vllm,您可以使用

    VLLM_ALLOW_LONG_MAX_MODEL_LEN=1 vllm serve ... --hf-overrides '{"text_config": {"rope_parameters": {"mrope_interleaved": true, "mrope_section": [11, 11, 10], "rope_type": "yarn", "rope_theta": 10000000, "partial_rotary_factor": 0.25, "factor": 4.0, "original_max_position_embeddings": 262144}}}' --max-model-len 1010000  

    对于 sglang 和 ktransformers,您可以使用

    SGLANG_ALLOW_OVERWRITE_LONGER_CONTEXT_LEN=1 python -m sglang.launch_server ... --json-model-override-args '{"text_config": {"rope_parameters": {"mrope_interleaved": true, "mrope_section": [11, 11, 10], "rope_type": "yarn", "rope_theta": 10000000, "partial_rotary_factor": 0.25, "factor": 4.0, "original_max_position_embeddings": 262144}}}' --context-length 1010000

[!NOTE] 所有主流开源框架均实现了静态 YaRN,这意味着缩放因子不随输入长度变化,可能会影响短文本的性能。 我们建议仅在需要处理长上下文时才修改 rope_parameters 配置。 同时,建议根据需要调整 factor。例如,如果您的应用场景中典型的上下文长度为 524,288 个 token,将 factor 设置为 2.0 会更合适。

最佳实践

为实现最佳性能,我们建议采用以下设置:

  1. 采样参数:

    • 建议根据模式和任务类型使用以下采样参数组合:
      • 通用任务思考模式:
        temperature=1.0,top_p=0.95,top_k=20,min_p=0.0,presence_penalty=0.0,repetition_penalty=1.0
      • 精确编码任务思考模式(如Web开发):
        temperature=0.6,top_p=0.95,top_k=20,min_p=0.0,presence_penalty=0.0,repetition_penalty=1.0
      • 指令(或非思考)模式:
        temperature=0.7,top_p=0.80,top_k=20,min_p=0.0,presence_penalty=1.5,repetition_penalty=1.0
    • 对于支持的框架,可将presence_penalty参数在0到2之间调整,以减少无意义重复。但较高的参数值偶尔可能导致语言混用,并使模型性能略有下降。
  2. 充足的输出长度:大多数查询建议使用32,768 tokens的输出长度。在数学和编程竞赛等高度复杂问题的基准测试中,建议将最大输出长度设置为81,920 tokens。这为模型生成详细全面的响应提供了足够空间,从而提升整体性能。

  3. 标准化输出格式:进行基准测试时,建议通过提示词标准化模型输出。

    • 数学问题:在提示词中包含“请逐步推理,并将最终答案放在\boxed{}内。”
    • 选择题:在提示词中添加以下JSON结构以标准化响应:“请在answer字段中仅用选项字母展示您的选择,例如:"answer": "C"。”
  4. 长视频理解:为优化纯文本和图像的推理效率,发布的video_preprocessor_config.json中size参数采用保守配置。建议将视频预处理配置文件中的longest_edge参数设置为469,762,048(对应224k视频tokens),以支持小时级视频的更高帧率采样,从而获得更优性能。例如:

    {"longest_edge": 469762048, "shortest_edge": 4096}

    或者,通过引擎启动参数覆盖默认值。实现细节请参考:vLLM / SGLang。

引用

如果您觉得我们的工作对您有所帮助,欢迎引用我们的成果。

@misc{qwen3.6-27b,
    title  = {{Qwen3.6-27B}: Flagship-Level Coding in a {27B} Dense Model},
    author = {{Qwen Team}},
    month  = {April},
    year   = {2026},
    url    = {https://qwen.ai/blog?id=qwen3.6-27b}
}