Q
Qwen/Qwen3-Next-80B-A3B-Instruct
模型介绍文件和版本分析
下载使用量0

Qwen3-Next-80B-A3B-Instruct

Chat

在过去几个月里,我们注意到一个日益清晰的趋势:为了追求更强大、更具智能体能力的人工智能(AI),模型的总参数量和上下文长度都在不断扩展。 我们很高兴分享我们在满足这些需求方面的最新进展——核心在于通过创新的模型架构提升扩展效率。 我们将这类新一代基础模型命名为Qwen3-Next。

亮点特性

Qwen3-Next-80B-A3B 作为 Qwen3-Next 系列的首款模型,具备以下关键增强特性:

  • 混合注意力机制(Hybrid Attention):采用门控 DeltaNet 与门控注意力相结合的方式替代标准注意力机制,实现对超长上下文长度的高效建模。
  • 高稀疏混合专家(High-Sparsity Mixture-of-Experts, MoE):在 MoE 层实现极低的激活率,大幅降低每 token 的 FLOPs,同时保留模型容量。
  • 稳定性优化(Stability Optimizations):包含零中心带权重衰减的层归一化等技术,以及其他用于增强预训练和后训练鲁棒性的稳定性提升手段。
  • 多 Token 预测(Multi-Token Prediction, MTP):提升预训练模型性能并加速推理过程。

Qwen3-Next-80B-A3B 在参数效率和推理速度方面均展现出优异性能:

  • Qwen3-Next-80B-A3B-Base 在下游任务上的表现优于 Qwen3-32B-Base,而其总训练成本仅为后者的 10%,且在处理超过 32K token 的上下文时,推理吞吐量提升了 10 倍。
  • Qwen3-Next-80B-A3B-Instruct 在部分基准测试上的性能与 Qwen3-235B-A22B-Instruct-2507 相当,同时在处理长达 256K token 的超长上下文任务时展现出显著优势。

Qwen3-Next-80B-A3B-Instruct 基准测试对比

更多详情,请参阅我们的博客文章 Qwen3-Next。

模型概述

[!Note] Qwen3-Next-80B-A3B-Instruct 仅支持指令(非思考)模式,其输出不会生成 </think>superscript: 块。

Qwen3-Next-80B-A3B-Instruct 具备以下特性:

  • 类型:因果语言模型
  • 训练阶段:预训练(15T tokens)与后训练
  • 参数数量:总计 800 亿,激活 30 亿
  • 非嵌入参数数量:790 亿
  • 隐藏维度:2048
  • 层数:48
    • 混合结构:12 * (3 * (门控 DeltaNet -> MoE) -> 1 * (门控注意力 -> MoE))
  • 门控注意力:
    • 注意力头数:Q 为 16,KV 为 2
    • 头维度:256
    • 旋转位置嵌入维度:64
  • 门控 DeltaNet:
    • 线性注意力头数:V 为 32,QK 为 16
    • 头维度:128
  • 混合专家(Mixture of Experts):
    • 专家数量:512
    • 激活专家数量:10
    • 共享专家数量:1
    • 专家中间维度:512
  • 上下文长度:原生支持 262,144 tokens,可扩展至 1,010,000 tokens

性能表现

Qwen3-30B-A3B-Instruct-2507Qwen3-32B Non-ThinkingQwen3-235B-A22B-Instruct-2507Qwen3-Next-80B-A3B-Instruct
知识能力
MMLU-Pro78.471.983.080.6
MMLU-Redux89.385.793.190.9
GPQA70.454.677.572.9
SuperGPQA53.443.262.658.8
推理能力
AIME2561.320.270.369.5
HMMT2543.09.855.454.1
LiveBench 2024112569.059.875.475.8
代码能力
LiveCodeBench v6 (25.02-25.05)43.229.151.856.6
MultiPL-E83.876.987.987.8
Aider-Polyglot35.640.057.349.8
对齐能力
IFEval84.783.288.787.6
Arena-Hard v2*69.034.179.282.7
Creative Writing v386.078.387.585.3
WritingBench85.575.485.287.3
智能体能力
BFCL-v365.163.070.970.3
TAU1-Retail59.140.171.360.9
TAU1-Airline40.017.044.044.0
TAU2-Retail57.048.874.657.3
TAU2-Airline38.024.050.045.5
TAU2-Telecom12.324.632.513.2
多语言能力
MultiIF67.970.777.575.8
MMLU-ProX72.069.379.476.7
INCLUDE71.970.979.578.9
PolyMATH43.122.550.245.9

*:为确保可复现性,我们报告由 GPT-4.1 评估的胜率。

快速入门

Qwen3-Next 的代码已合并至 Hugging Face transformers 的主分支。

pip install git+https://github.com/huggingface/transformers.git@main

在早期版本中,您会遇到以下错误:

KeyError: 'qwen3_next'

以下内容包含一段代码片段,展示了如何使用模型根据给定输入生成内容。

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "Qwen/Qwen3-Next-80B-A3B-Instruct"

# load the tokenizer and the model
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
    model_name,
    dtype="auto",
    device_map="auto",
)

# prepare the model input
prompt = "Give me a short introduction to large language model."
messages = [
    {"role": "user", "content": prompt},
]
text = tokenizer.apply_chat_template(
    messages,
    tokenize=False,
    add_generation_prompt=True,
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)

# conduct text completion
generated_ids = model.generate(
    **model_inputs,
    max_new_tokens=16384,
)
output_ids = generated_ids[0][len(model_inputs.input_ids[0]):].tolist() 

content = tokenizer.decode(output_ids, skip_special_tokens=True)

print("content:", content)

[!Note] Hugging Face Transformers 中暂未普遍支持 Multi-Token Prediction (MTP)。

[!Note] 效率或吞吐量的提升在很大程度上取决于具体实现。 建议采用专用的推理框架(例如 SGLang 和 vLLM)来执行推理任务。

[!Tip] 根据不同的推理设置,使用 flash-linear-attention 和 causal-conv1d 可能会获得更优的效率。 有关详细的使用说明和要求,请参见上述链接。

部署

在部署方面,您可以使用最新版本的 sglang 或 vllm 来创建兼容 OpenAI 的 API 端点。

SGLang

SGLang 是一个针对大型语言模型和视觉语言模型的快速服务框架。 SGLang 可用于启动具备 OpenAI 兼容 API 服务的服务器。

Qwen3-Next 需要 sglang>=0.5.2 版本,可通过以下方式安装:

pip install 'sglang[all]>=0.5.2'

更多详情请参见其文档。

以下命令可用于在 4 块 GPU 上通过张量并行创建一个 API 端点,地址为 http://localhost:30000/v1,最大上下文长度为 256K tokens。

python -m sglang.launch_server --model-path Qwen/Qwen3-Next-80B-A3B-Instruct --port 30000 --tp-size 4 --context-length 262144 --mem-fraction-static 0.8

以下是用于 MTP 的推荐命令,其余设置与上文相同:

python -m sglang.launch_server --model-path Qwen/Qwen3-Next-80B-A3B-Instruct --port 30000 --tp-size 4 --context-length 262144 --mem-fraction-static 0.8 --speculative-algo NEXTN --speculative-num-steps 3 --speculative-eagle-topk 1 --speculative-num-draft-tokens 4

[!Note] 默认上下文长度为 256K。如果服务器启动失败,请考虑将上下文长度减小到更小的值,例如 32768。

另请参考 SGLang 关于 Qwen3-Next 的使用指南。

vLLM

vLLM 是一个用于大语言模型的高吞吐量且内存高效的推理和服务引擎。 vLLM 可用于启动带有 OpenAI 兼容 API 服务的服务器。

Qwen3-Next 需要 vllm>=0.10.2,可通过以下方式安装:

pip install 'vllm>=0.10.2'

有关更多详情,请参见其文档。

以下命令可用于在4块GPU上通过张量并行创建一个API端点,地址为http://localhost:8000/v1,最大上下文长度为256K tokens。

vllm serve Qwen/Qwen3-Next-80B-A3B-Instruct --port 8000 --tensor-parallel-size 4 --max-model-len 262144

以下是用于 MTP 的推荐命令,其余设置与上文相同:

vllm serve Qwen/Qwen3-Next-80B-A3B-Instruct --port 8000 --tensor-parallel-size 4 --max-model-len 262144 --speculative-config '{"method":"qwen3_next_mtp","num_speculative_tokens":2}'

[!Note] 默认上下文长度为 256K。如果服务器启动失败,请考虑将上下文长度减小到更小的值,例如 32768。

另请参阅 vLLM 关于 Qwen3-Next 的使用指南。

智能体应用

Qwen3 在工具调用能力方面表现出色。我们建议使用 Qwen-Agent 以充分发挥 Qwen3 的智能体能力。Qwen-Agent 在内部封装了工具调用模板和工具调用解析器,大幅降低了编码复杂度。

要定义可用工具,您可以使用 MCP 配置文件、使用 Qwen-Agent 的集成工具,或自行集成其他工具。

from qwen_agent.agents import Assistant

# Define LLM
llm_cfg = {
    'model': 'Qwen3-Next-80B-A3B-Instruct',

    # Use a custom endpoint compatible with OpenAI API:
    'model_server': 'http://localhost:8000/v1',  # api_base
    'api_key': 'EMPTY',
}

# Define Tools
tools = [
    {'mcpServers': {  # You can specify the MCP configuration file
            'time': {
                'command': 'uvx',
                'args': ['mcp-server-time', '--local-timezone=Asia/Shanghai']
            },
            "fetch": {
                "command": "uvx",
                "args": ["mcp-server-fetch"]
            }
        }
    },
  'code_interpreter',  # Built-in tools
]

# Define Agent
bot = Assistant(llm=llm_cfg, function_list=tools)

# Streaming generation
messages = [{'role': 'user', 'content': 'https://qwenlm.github.io/blog/ Introduce the latest developments of Qwen'}]
for responses in bot.run(messages=messages):
    pass
print(responses)

超长文本处理

Qwen3-Next 原生支持最长 262,144 tokens 的上下文长度。 当对话总长度(包含输入和输出)显著超过此限制时,建议使用 RoPE 缩放技术来有效处理长文本。 我们已通过 YaRN 方法验证了模型在最长 100 万 tokens 上下文长度下的性能。

目前已有多个推理框架支持 YaRN,例如 transformers、vllm 和 sglang。 通常,在支持的框架中启用 YaRN 有以下两种方法:

  • 修改模型文件: 在 config.json 文件中,添加 rope_scaling 字段:

    {
        ...,
        "rope_scaling": {
            "rope_type": "yarn",
            "factor": 4.0,
            "original_max_position_embeddings": 262144
        }
    }
  • 通过命令行参数:

    对于 vllm,可以使用

    VLLM_ALLOW_LONG_MAX_MODEL_LEN=1 vllm serve ... --rope-scaling '{"rope_type":"yarn","factor":4.0,"original_max_position_embeddings":262144}' --max-model-len 1010000  

    对于 sglang,可以使用

    SGLANG_ALLOW_OVERWRITE_LONGER_CONTEXT_LEN=1 python -m sglang.launch_server ... --json-model-override-args '{"rope_scaling":{"rope_type":"yarn","factor":4.0,"original_max_position_embeddings":262144}}' --context-length 1010000

[!NOTE] 所有主流开源框架均实现了静态 YaRN,这意味着缩放因子不随输入长度变化而改变,可能会影响短文本的性能。 建议仅在需要处理长上下文时才添加 rope_scaling 配置。 还建议根据需要修改 factor。例如,如果您的应用程序的典型上下文长度为 524,288 tokens,则最好将 factor 设置为 2.0。

长上下文性能

我们在 RULER 基准测试的 100 万 tokens 版本上对模型进行了测试。

模型名称Acc avg4k8k16k32k64k96k128k192k256k384k512k640k768k896k1000k
Qwen3-30B-A3B-Instruct-250786.898.096.796.997.293.491.089.189.882.583.678.479.777.675.772.8
Qwen3-235B-A22B-Instruct-250792.598.597.696.997.395.894.993.994.591.092.290.987.884.886.584.5
Qwen3-Next-80B-A3B-Instruct91.898.599.098.098.797.695.096.094.093.591.786.985.581.780.380.3
  • Qwen3-Next 评估时启用了 YaRN。Qwen3-2507 模型评估时启用了 Dual Chunk Attention。
  • 由于评估耗时较长,我们每个长度使用 260 个样本(13 个子任务,每个子任务 20 个样本)。

最佳实践

为实现最佳性能,我们建议采用以下设置:

  1. 采样参数:

    • 建议使用 Temperature=0.7、TopP=0.8、TopK=20 和 MinP=0。
    • 在支持的框架中,可将 presence_penalty 参数调整在 0 到 2 之间,以减少无意义的重复。但需注意,较高的参数值可能偶尔导致语言混杂,并略微降低模型性能。
  2. 充足的输出长度:对于大多数查询,建议使用 16,384 tokens 的输出长度,这对于指令微调模型而言已足够。

  3. 标准化输出格式:在进行基准测试时,建议通过提示词标准化模型输出。

    • 数学问题:在提示词中加入“请逐步推理,并将最终答案放在 \boxed{} 内。”
    • 多项选择题:在提示词中添加以下 JSON 结构以标准化响应:“请在 answer 字段中仅用选项字母展示您的选择,例如:"answer": "C"。”

引用

如果您觉得我们的工作有帮助,欢迎引用。

@misc{qwen3technicalreport,
      title={Qwen3 Technical Report}, 
      author={Qwen Team},
      year={2025},
      eprint={2505.09388},
      archivePrefix={arXiv},
      primaryClass={cs.CL},
      url={https://arxiv.org/abs/2505.09388}, 
}

@article{qwen2.5-1m,
      title={Qwen2.5-1M Technical Report}, 
      author={An Yang and Bowen Yu and Chengyuan Li and Dayiheng Liu and Fei Huang and Haoyan Huang and Jiandong Jiang and Jianhong Tu and Jianwei Zhang and Jingren Zhou and Junyang Lin and Kai Dang and Kexin Yang and Le Yu and Mei Li and Minmin Sun and Qin Zhu and Rui Men and Tao He and Weijia Xu and Wenbiao Yin and Wenyuan Yu and Xiafei Qiu and Xingzhang Ren and Xinlong Yang and Yong Li and Zhiying Xu and Zipeng Zhang},
      journal={arXiv preprint arXiv:2501.15383},
      year={2025}
}