Q
Qwen/Qwen3.6-35B-A3B-FP8
模型介绍文件和版本分析
下载使用量0

Qwen3.6-35B-A3B-FP8

Qwen Chat

[!Note] 本仓库包含采用FP8量化的模型权重以及Hugging Face Transformers格式下经过后训练模型的配置文件。

这些制品与Hugging Face Transformers、vLLM、SGLang、KTransformers等工具兼容。

量化方法为块大小128的细粒度fp8量化,其性能指标与原始模型几乎一致。

继2月份发布Qwen3.5系列之后,我们荣幸地推出Qwen3.6的首个开源权重版本。Qwen3.6基于社区的直接反馈构建而成,将稳定性和实际应用价值置于首位,为开发者带来更直观、响应更迅速且真正高效的编码体验。

Qwen3.6 亮点

此次发布带来了显著升级,尤其在以下方面:

  • 智能体编码(Agentic Coding):模型现在能更流畅、精准地处理前端工作流和仓库级推理任务。
  • 思维保留(Thinking Preservation):我们引入了一项新功能,可保留历史消息中的推理上下文,从而简化迭代开发并减少额外操作。

Benchmark Results

更多详情,请参阅我们的博客文章 Qwen3.6-35B-A3B。

模型概述

  • 类型:带视觉编码器的因果语言模型
  • 训练阶段:预训练与后训练
  • 语言模型
    • 参数数量:总计350亿,激活30亿
    • 隐藏层维度:2048
    • 词嵌入维度:248320(已填充)
    • 层数:40
    • 隐藏层布局:10 × (3 × (门控DeltaNet → MoE) → 1 × (门控注意力 → MoE))
    • 门控DeltaNet:
      • 线性注意力头数:V为32,QK为16
      • 头维度:128
    • 门控注意力:
      • 注意力头数:Q为16,KV为2
      • 头维度:256
      • 旋转位置嵌入维度:64
    • 混合专家(Mixture Of Experts):
      • 专家数量:256
      • 激活专家数量:8个路由专家 + 1个共享专家
      • 专家中间层维度:512
    • 语言模型输出:248320(已填充)
    • MTP:采用多步训练
  • 上下文长度:原生支持262,144 tokens,可扩展至1,010,000 tokens。

基准测试结果

语言能力

Qwen3.5-27BGemma4-31BQwen3.5-35BA3BGemma4-26BA4BQwen3.6-35BA3B
代码智能体
SWE-bench 验证集75.052.070.017.473.4
SWE-bench 多语言版69.351.760.317.367.2
SWE-bench 专业版51.235.744.613.849.5
Terminal-Bench 2.041.642.940.534.251.5
Claw-Eval 平均值64.348.565.458.868.7
Claw-Eval Pass^346.225.051.028.050.0
SkillsBench Avg527.223.64.412.328.7
QwenClawBench52.241.747.738.752.6
NL2Repo27.315.520.511.629.4
QwenWebBench1068119797811781397
通用智能体
TAU3-Bench68.467.568.959.067.2
VITA-Bench41.843.029.136.935.6
DeepPlanning22.624.022.816.225.9
Tool Decathlon31.521.228.712.026.9
MCPMark36.318.127.014.237.0
MCP-Atlas68.457.262.450.062.8
WideSearch66.435.259.138.360.1
知识掌握
MMLU-Pro86.185.285.382.685.2
MMLU-Redux93.293.793.392.793.3
SuperGPQA65.665.763.461.464.7
C-Eval90.582.690.282.590.0
STEM 与推理能力
GPQA85.584.384.282.386.0
HLE24.319.522.48.721.4
LiveCodeBench v680.780.074.677.180.4
HMMT Feb 2592.088.789.091.790.7
HMMT Nov 2589.887.589.287.589.1
HMMT Feb 2684.377.278.779.083.6
IMOAnswerBench79.974.5
76.8 74.3 78.9 AIME26 92.6 89.2 91.0 88.3 92.7

* SWE-Bench 系列:内部智能体框架(bash + 文件编辑工具);温度参数=1.0,top_p=0.95,200K 上下文窗口。我们修正了 SWE-bench Pro 公开数据集中的部分问题任务,并在优化后的基准上评估所有基线模型。
* Terminal-Bench 2.0:采用 Harbor/Terminus-2 测试框架;超时时间 3 小时,配置 32 CPU/48 GB 内存;温度参数=1.0,top_p=0.95,top_k=20,最大 tokens=80K,256K 上下文;5 次运行的平均值。
* SkillsBench:通过 OpenCode 在 78 个任务上进行评估(独立子集,排除依赖 API 的任务);5 次运行的平均值。
* NL2Repo:其他模型通过 Claude Code 进行评估(温度参数=1.0,top_p=0.95,最大轮次=900)。
* QwenClawBench:内部真实用户分布的 Claw 智能体基准(即将开源);温度参数=0.6,256K 上下文。
* QwenWebBench:内部前端代码生成基准;支持双语(英文/中文),包含 7 个类别(网页设计、Web 应用、游戏、SVG、数据可视化、动画和 3D);自动渲染 + 多模态评判(代码/视觉正确性);采用 BT/Elo 评分系统。
* TAU3-Bench:使用官方用户模型(gpt-5.2,低推理强度)+ 默认 BM25 检索。
* VITA-Bench:子领域得分平均值;由于官方评判模型(claude-3.7-sonnet)已停用,改用 claude-4-sonnet 作为评判模型。
* MCPMark:基于 GitHub MCP v0.30.3;Playwright 响应截断至 32K tokens。
* MCP-Atlas:公开数据集得分;采用 gemini-2.5-pro 作为评判模型。
* AIME 26:使用完整的 AIME 2026(I 卷和 II 卷),其得分可能与 Qwen 3.5 的说明文档中有所不同。

视觉语言

Qwen3.5-27BClaude-Sonnet-4.5Gemma4-31BGemma4-26BA4BQwen3.5-35B-A3BQwen3.6-35B-A3B
STEM与谜题
MMMU82.379.680.478.481.481.7
MMMU-Pro75.068.476.9*73.8*75.175.3
Mathvista(mini)87.879.879.379.486.286.4
ZEROBench_sub36.226.326.026.334.134.4
通用视觉问答
RealWorldQA83.770.372.372.284.185.3
MMBenchEN-DEV-v1.192.688.390.989.091.592.8
SimpleVQA56.057.652.952.258.358.9
HallusionBench70.059.967.466.167.969.8
文本识别与文档理解
OmniDocBench1.588.985.880.174.489.389.9
CharXiv(RQ)79.567.267.969.077.578.0
CC-OCR81.068.175.774.580.781.9
AI2D_TEST92.987.089.088.392.692.7
空间智能
RefCOCO(avg)90.9------89.292.0
ODInW1341.1------42.650.8
EmbSpatialBench84.571.8----83.184.3
RefSpatialBench67.7------63.564.3
视频理解
VideoMME(带字幕)87.081.1----86.686.6
VideoMME(无字幕)82.875.3----82.582.5
VideoMMMU82.377.681.676.080.483.7
MLVU85.972.8----85.686.2
MVBench74.6------74.874.6
LVBench73.6------71.471.4

* 空白单元格(--)表示分数不可用或不适用。

快速入门

为简化集成流程,我们建议通过 API 使用 Qwen3.6。以下是通过兼容 OpenAI 的 API 使用 Qwen3.6 的指南。

部署 Qwen3.6

Qwen3.6 可通过主流推理框架以 API 形式部署。 下文将展示启动 Qwen3.6 模型兼容 OpenAI API 服务的示例命令。

[!Important] 不同框架的推理效率和吞吐量差异显著。 建议使用最新版本的框架,以确保最佳性能和兼容性。 对于生产工作负载或高吞吐量场景,强烈推荐使用 SGLang、KTransformers 或 vLLM 等专用部署引擎。

[!Important] 该模型的默认上下文长度为 262,144 个 token。 若遇到内存不足(OOM)错误,可考虑减小上下文窗口。 但由于 Qwen3.6 利用扩展上下文处理复杂任务,建议保持至少 128K token 的上下文长度,以保留其思考能力。

SGLang

SGLang 是一个用于大型语言模型和视觉语言模型的快速部署框架。 Qwen3.6 推荐使用 sglang>=0.5.10,可在全新环境中通过以下命令安装:

uv pip install sglang[all]

有关更多详情,请参见其文档。

以下操作将在 http://localhost:8000/v1 创建 API 端点:

  • 标准版:可使用以下命令创建一个最大上下文长度为 262,144 tokens、基于 8 块 GPU 进行张量并行的 API 端点。

    python -m sglang.launch_server --model-path Qwen/Qwen3.6-35B-A3B-FP8 --port 8000 --tp-size 8 --mem-fraction-static 0.8 --context-length 262144 --reasoning-parser qwen3
  • 工具调用:若要支持工具调用,可使用以下命令。

    python -m sglang.launch_server --model-path Qwen/Qwen3.6-35B-A3B-FP8 --port 8000 --tp-size 8 --mem-fraction-static 0.8 --context-length 262144 --reasoning-parser qwen3 --tool-call-parser qwen3_coder
  • 多 token 预测(MTP):推荐使用以下命令进行 MTP:

    python -m sglang.launch_server --model-path Qwen/Qwen3.6-35B-A3B-FP8 --port 8000 --tp-size 8 --mem-fraction-static 0.8 --context-length 262144 --reasoning-parser qwen3 --speculative-algo NEXTN --speculative-num-steps 3 --speculative-eagle-topk 1 --speculative-num-draft-tokens 4

有关详细的部署指南,请参见 SGLang Qwen3.5 实用指南。

vLLM

vLLM 是一个用于大型语言模型(LLMs)的高吞吐量且内存高效的推理与服务引擎。 Qwen3.6 推荐使用 vllm>=0.19.0,可在全新环境中通过以下命令安装:

uv pip install vllm --torch-backend=auto

有关更多详细信息,请参见其文档。

以下操作将在 http://localhost:8000/v1 创建 API 端点:

  • 标准版:可使用以下命令创建上下文长度最大为 262,144 tokens 的 API 端点,该命令在 8 块 GPU 上使用张量并行。

    vllm serve Qwen/Qwen3.6-35B-A3B-FP8 --port 8000 --tensor-parallel-size 8 --max-model-len 262144 --reasoning-parser qwen3 
  • 工具调用:要支持工具使用,可使用以下命令。

    vllm serve Qwen/Qwen3.6-35B-A3B-FP8 --port 8000 --tensor-parallel-size 8 --max-model-len 262144 --reasoning-parser qwen3 --enable-auto-tool-choice --tool-call-parser qwen3_coder 
  • 多 Token 预测(MTP):建议使用以下命令进行 MTP:

    vllm serve Qwen/Qwen3.6-35B-A3B-FP8 --port 8000 --tensor-parallel-size 8 --max-model-len 262144 --reasoning-parser qwen3 --speculative-config '{"method":"qwen3_next_mtp","num_speculative_tokens":2}'
  • 纯文本模式:以下命令会跳过视觉编码器和多模态分析,以释放内存用于额外的 KV 缓存:

    vllm serve Qwen/Qwen3.6-35B-A3B-FP8 --port 8000 --tensor-parallel-size 8 --max-model-len 262144 --reasoning-parser qwen3 --language-model-only

有关详细的部署指南,请参见 vLLM Qwen3.5 指南。

KTransformers

KTransformers 是一个灵活的框架,可通过 CPU-GPU 异构计算体验前沿的 LLM 推理优化。 要使用 KTransformers 运行 Qwen3.6,请参见 KTransformers 部署指南。

Hugging Face Transformers

Hugging Face Transformers 包含一个轻量级服务器,可用于快速测试和中等负载部署。 运行 Qwen3.6 需要最新版本的 transformers:

pip install "transformers[serving]"

有关更多详情,请参见其文档。同时,请确保已安装torchvision和pillow。

然后,运行transformers serve以启动服务器,其API端点位于http://localhost:8000/v1;如果有可用的加速器,服务器会将模型部署到加速器上:

transformers serve Qwen/Qwen3.6-35B-A3B-FP8 --port 8000 --continuous-batching

通过聊天补全 API 使用 Qwen3.6

聊天补全 API 可通过标准 HTTP 请求或 OpenAI SDK 访问。 此处,我们展示使用 OpenAI Python SDK 的示例。

开始前,请确保已安装该 SDK,并已配置 API 密钥和 API 基础 URL,例如:

pip install -U openai

# Set the following accordingly
export OPENAI_BASE_URL="http://localhost:8000/v1"
export OPENAI_API_KEY="EMPTY"

[!Tip] 我们建议使用以下一组采样参数进行生成

  • 通用任务的思考模式:temperature=1.0, top_p=0.95, top_k=20, min_p=0.0, presence_penalty=1.5, repetition_penalty=1.0
  • 精确编码任务的思考模式(例如 WebDev):temperature=0.6, top_p=0.95, top_k=20, min_p=0.0, presence_penalty=0.0, repetition_penalty=1.0
  • 指令(或非思考)模式:temperature=0.7, top_p=0.80, top_k=20, min_p=0.0, presence_penalty=1.5, repetition_penalty=1.0

请注意,不同推理框架对采样参数的支持情况有所不同。

[!Important] Qwen3.6 模型默认以思考模式运行,在生成最终响应前会先产生以 </think>\n...</think>\n\n 标记的思考内容。 若要禁用思考内容并获得直接响应,请参考此处的示例。

纯文本输入

from openai import OpenAI
# Configured by environment variables
client = OpenAI()

messages = [
    {"role": "user", "content": "Type \"I love Qwen3.6\" backwards"},
]

chat_response = client.chat.completions.create(
    model="Qwen/Qwen3.6-35B-A3B-FP8",
    messages=messages,
    max_tokens=81920,
    temperature=1.0,
    top_p=0.95,
    presence_penalty=1.5,
    extra_body={
        "top_k": 20,
    }, 
)
print("Chat response:", chat_response)

图像输入

from openai import OpenAI
# Configured by environment variables
client = OpenAI()

messages = [
    {
        "role": "user",
        "content": [
            {
                "type": "image_url",
                "image_url": {
                    "url": "https://qianwen-res.oss-accelerate.aliyuncs.com/Qwen3.5/demo/CI_Demo/mathv-1327.jpg"
                }
            },
            {
                "type": "text",
                "text": "The centres of the four illustrated circles are in the corners of the square. The two big circles touch each other and also the two little circles. With which factor do you have to multiply the radii of the little circles to obtain the radius of the big circles?\nChoices:\n(A) $\\frac{2}{9}$\n(B) $\\sqrt{5}$\n(C) $0.8 \\cdot \\pi$\n(D) 2.5\n(E) $1+\\sqrt{2}$"
            }
        ]
    }
]

chat_response = client.chat.completions.create(
    model="Qwen/Qwen3.6-35B-A3B-FP8",
    messages=messages,
    max_tokens=81920,
    temperature=1.0,
    top_p=0.95,
    presence_penalty=1.5,
    extra_body={
        "top_k": 20,
    }, 
)
print("Chat response:", chat_response)

视频输入

from openai import OpenAI
# Configured by environment variables
client = OpenAI()

messages = [
    {
        "role": "user",
        "content": [
            {
                "type": "video_url",
                "video_url": {
                    "url": "https://qianwen-res.oss-accelerate.aliyuncs.com/Qwen3.5/demo/video/N1cdUjctpG8.mp4"
                }
            },
            {
                "type": "text",
                "text": "How many porcelain jars were discovered in the niches located in the primary chamber of the tomb?"
            }
        ]
    }
]

# When vLLM is launched with `--media-io-kwargs '{"video": {"num_frames": -1}}'`,
# video frame sampling can be configured via `extra_body` (e.g., by setting `fps`).
# This feature is currently supported only in vLLM.
#
# By default, `fps=2` and `do_sample_frames=True`.
# With `do_sample_frames=True`, you can customize the `fps` value to set your desired video sampling rate.
chat_response = client.chat.completions.create(
    model="Qwen/Qwen3.6-35B-A3B-FP8",
    messages=messages,
    max_tokens=81920,
    temperature=1.0,
    top_p=0.95,
    presence_penalty=1.5,
    extra_body={
        "top_k": 20,
        "mm_processor_kwargs": {"fps": 2, "do_sample_frames": True},
    }, 
)

print("Chat response:", chat_response)

指令(或非思考)模式

[!Important] Qwen3.6 不正式支持 Qwen3 的软切换,即 /think 和 /nothink。

Qwen3.6 默认会在响应前进行思考。 你可以通过配置 API 参数让模型直接响应而不进行思考。 例如,

from openai import OpenAI
# Configured by environment variables
client = OpenAI()

messages = [
    {
        "role": "user",
        "content": [
            {
                "type": "image_url",
                "image_url": {
                    "url": "https://qianwen-res.oss-accelerate.aliyuncs.com/Qwen3.6/demo/RealWorld/RealWorld-04.png"
                }
            },
            {
                "type": "text",
                "text": "Where is this?"
            }
        ]
    }
]

chat_response = client.chat.completions.create(
    model="Qwen/Qwen3.6-35B-A3B-FP8",
    messages=messages,
    max_tokens=32768,
    temperature=0.7,
    top_p=0.8,
    presence_penalty=1.5,
    extra_body={
        "top_k": 20,
        "chat_template_kwargs": {"enable_thinking": False},
    }, 
)
print("Chat response:", chat_response)

[!Note] 若您使用的是阿里云 Model Studio 的 API,除了修改 model 外,请使用 "enable_thinking": False,而非 "chat_template_kwargs": {"enable_thinking": False}。

保留思考过程

默认情况下,仅保留处理最新用户消息时生成的思考块,形成通常所说的交错思考模式。 Qwen3.6 经过额外训练,能够保留并利用历史消息中的思考痕迹。 您可以通过设置 preserve_thinking 选项来启用此功能:

from openai import OpenAI
# Configured by environment variables
client = OpenAI()

messages = [...]

chat_response = client.chat.completions.create(
    model="Qwen/Qwen3.6-35B-A3B-FP8",
    messages=messages,
    max_tokens=32768,
    temperature=0.7,
    top_p=0.8,
    presence_penalty=1.5,
    extra_body={
        "top_k": 20,
        "chat_template_kwargs": {"preserve_thinking": True},
    }, 
)
print("Chat response:", chat_response)

[!Note] 若您使用的是阿里云模型 Studio 的 API,除了修改 model 外,请使用 "preserve_thinking": True,而非 "chat_template_kwargs": {"preserve_thinking": False}。

此功能在智能体场景中尤为实用,通过保留完整的推理上下文,有助于提升决策一致性,并且在多数情况下可减少冗余推理,从而降低总体 token 消耗。此外,该功能还能提高 KV 缓存的利用率,在思考模式与非思考模式下均能优化推理效率。

智能体使用方法

Qwen3.6 在工具调用能力方面表现出色。

Qwen-Agent

我们建议使用 Qwen-Agent,以快速基于 Qwen3.6 构建智能体应用。

您可以通过 MCP 配置文件定义可用工具,也可使用 Qwen-Agent 的集成工具,或自行集成其他工具。

import os
from qwen_agent.agents import Assistant

# Define LLM
# Using Alibaba Cloud Model Studio
llm_cfg = {
    # Use the OpenAI-compatible model service provided by DashScope:
    'model': 'Qwen3.6-35B-A3B',
    'model_type': 'qwenvl_oai',
    'model_server': 'https://dashscope.aliyuncs.com/compatible-mode/v1',
    'api_key': os.getenv('DASHSCOPE_API_KEY'),

    'generate_cfg': {
        'use_raw_api': True,
        # When using Dash Scope OAI API, pass the parameter of whether to enable thinking mode in this way
        'extra_body': {
            'enable_thinking': True,
            'preserve_thinking': True,
        },
    },
}

# Using OpenAI-compatible API endpoint.
# functionality of the deployment frameworks and let Qwen-Agent automate the related operations.
#
# llm_cfg = {
#     # Use your own model service compatible with OpenAI API by vLLM/SGLang:
#     'model': 'Qwen/Qwen3.6-35B-A3B-FP8',
#     'model_type': 'qwenvl_oai',
#     'model_server': 'http://localhost:8000/v1',  # api_base
#     'api_key': 'EMPTY',
#
#     'generate_cfg': {
#         'use_raw_api': True,
#         # When using vLLM/SGLang OAI API, pass the parameter of whether to enable thinking mode in this way
#         'extra_body': {
#             'chat_template_kwargs': {'enable_thinking': True, 'preserve_thinking': True}
#         },
#     },
# }

# Define Tools
tools = [
    {'mcpServers': {  # You can specify the MCP configuration file
            "filesystem": {
                "command": "npx",
                "args": ["-y", "@modelcontextprotocol/server-filesystem", "/Users/xxxx/Desktop"]
            }
        }
    }
]

# Define Agent
bot = Assistant(llm=llm_cfg, function_list=tools)

# Streaming generation
messages = [{'role': 'user', 'content': 'Help me organize my desktop.'}]
for responses in bot.run(messages=messages):
    pass
print(responses)

# Streaming generation
messages = [{'role': 'user', 'content': 'Develop a dog website and save it on the desktop'}]
for responses in bot.run(messages=messages):
    pass
print(responses)

Qwen Code

Qwen Code 是一款开源的终端 AI 代理,专为 Qwen 模型优化。它能帮助您理解大型代码库、自动化繁琐工作,从而加快开发进度。

更多信息,请参阅 Qwen Code。

超长文本处理

Qwen3.6 原生支持最长 262,144 个 token 的上下文长度。 对于总长度(包括输入和输出)超过此限制的长程任务,我们建议使用 RoPE 缩放技术(如 YaRN)来有效处理长文本。

目前已有多个推理框架支持 YaRN,例如 transformers、vllm、ktransformers 和 sglang。 通常,在支持的框架中启用 YaRN 有两种方法:

  • 修改模型配置文件: 在 config.json 文件中,将 text_config 里的 rope_parameters 字段修改为:

    {
        "mrope_interleaved": true,
        "mrope_section": [
            11,
            11,
            10
        ],
        "rope_type": "yarn",
        "rope_theta": 10000000,
        "partial_rotary_factor": 0.25,
        "factor": 4.0,
        "original_max_position_embeddings": 262144,
    }
  • 传递命令行参数:

    对于 vllm,您可以使用

    VLLM_ALLOW_LONG_MAX_MODEL_LEN=1 vllm serve ... --hf-overrides '{"text_config": {"rope_parameters": {"mrope_interleaved": true, "mrope_section": [11, 11, 10], "rope_type": "yarn", "rope_theta": 10000000, "partial_rotary_factor": 0.25, "factor": 4.0, "original_max_position_embeddings": 262144}}}' --max-model-len 1010000  

    对于 sglang 和 ktransformers,您可以使用

    SGLANG_ALLOW_OVERWRITE_LONGER_CONTEXT_LEN=1 python -m sglang.launch_server ... --json-model-override-args '{"text_config": {"rope_parameters": {"mrope_interleaved": true, "mrope_section": [11, 11, 10], "rope_type": "yarn", "rope_theta": 10000000, "partial_rotary_factor": 0.25, "factor": 4.0, "original_max_position_embeddings": 262144}}}' --context-length 1010000

[!NOTE] 所有主流开源框架均实现了静态 YaRN,这意味着缩放因子不随输入长度变化,可能会影响短文本的性能。 我们建议仅在需要处理长上下文时才修改 rope_parameters 配置。 同时,建议根据需要调整 factor。例如,如果您的应用场景中典型上下文长度为 524,288 个 token,将 factor 设置为 2.0 会更合适。

最佳实践

为获得最佳性能,我们建议采用以下设置:

  1. 采样参数:

    • 建议根据模式和任务类型使用以下采样参数组合:
      • 通用任务的思考模式:
        temperature=1.0,top_p=0.95,top_k=20,min_p=0.0,presence_penalty=1.5,repetition_penalty=1.0
      • 精确编码任务的思考模式(如Web开发):
        temperature=0.6,top_p=0.95,top_k=20,min_p=0.0,presence_penalty=0.0,repetition_penalty=1.0
      • 指令(或非思考)模式:
        temperature=0.7,top_p=0.80,top_k=20,min_p=0.0,presence_penalty=1.5,repetition_penalty=1.0
    • 在支持的框架中,可将presence_penalty参数调整为0到2之间的值,以减少无意义的重复。但较高的取值偶尔可能导致语言混杂,并略微降低模型性能。
  2. 充足的输出长度:对于大多数查询,建议使用32,768 tokens的输出长度。在数学和编程竞赛等高度复杂问题的基准测试中,建议将最大输出长度设置为81,920 tokens。这能为模型提供足够的空间来生成详细且全面的响应,从而提升整体性能。

  3. 标准化输出格式:在进行基准测试时,建议通过提示词标准化模型输出。

    • 数学问题:在提示词中包含“请逐步推理,并将最终答案放在\boxed{}中。”
    • 选择题:在提示词中添加以下JSON结构以标准化响应:“请在answer字段中仅用选项字母展示您的选择,例如:"answer": "C"。”
  4. 长视频理解:为优化纯文本和图像的推理效率,已发布的video_preprocessor_config.json中的size参数采用了保守配置。建议将视频预处理配置文件中的longest_edge参数设置为469,762,048(对应224k视频tokens),以实现小时级视频的更高帧率采样,从而获得更优性能。例如:

    {"longest_edge": 469762048, "shortest_edge": 4096}

    或者,通过引擎启动参数覆盖默认值。实现细节请参考:vLLM / SGLang。

引用

如果您觉得我们的工作对您有所帮助,欢迎引用我们的成果。

@misc{qwen36_35b_a3b,
    title = {{Qwen3.6-35B-A3B}: Agentic Coding Power, Now Open to All},
    url = {https://qwen.ai/blog?id=qwen3.6-35b-a3b},
    author = {{Qwen Team}},
    month = {April},
    year = {2026}
}