d
deepseek-ai/DeepSeek-V3.2
模型介绍模型推理文件和版本分析
下载使用量0

DeepSeek-V3.2: 高效推理与智能体人工智能

DeepSeek-V3

官网 聊天 Hugging Face
Discord 微信 Twitter 关注
许可证

技术报告👁️

引言

我们推出DeepSeek-V3.2,这是一款兼顾高计算效率与卓越推理及智能体性能的模型。我们的方法基于三项关键技术突破:

  1. 深度求索稀疏注意力机制(DSA):我们提出了DSA,这是一种高效的注意力机制,在保持模型性能的同时显著降低了计算复杂度,尤其针对长上下文场景进行了优化。
  2. 可扩展强化学习框架:通过实施稳健的强化学习协议并扩展训练后计算资源,DeepSeek-V3.2 的性能可与GPT-5相媲美。值得注意的是,我们的高计算资源变体DeepSeek-V3.2-Speciale不仅超越了GPT-5,还展现出与Gemini-3.0-Pro相当的推理能力。
    • 成就:🥇 在2025年国际数学奥林匹克(IMO)和国际信息学奥林匹克(IOI)中荣获金牌级表现。
  3. 大规模智能体任务合成流水线:为将推理融入工具使用场景,我们开发了一种新颖的合成流水线,能够系统性地大规模生成训练数据。这促进了可扩展的智能体训练后优化,提升了在复杂交互环境中的任务遵循度和泛化能力。

我们还发布了2025年IOI、ICPC世界总决赛、IMO以及CMO的最终提交作品,这些作品是根据我们设计的流水线筛选出来的。这些材料供社区进行二次验证,相关文件可在assets/olympiad_cases目录下获取。

对话模板

与先前版本相比,DeepSeek-V3.2对其对话模板进行了重大更新。主要变化包括修订的工具调用格式以及新增的“使用工具进行思考”功能。

为帮助社区理解和适应这一新模板,我们提供了专门的encoding文件夹,其中包含Python脚本和测试用例,展示了如何将OpenAI兼容格式的消息编码为模型的输入字符串,以及如何解析模型的文本输出。

下面是一个简要示例:

import transformers
# encoding/encoding_dsv32.py
from encoding_dsv32 import encode_messages, parse_message_from_completion_text

tokenizer = transformers.AutoTokenizer.from_pretrained("deepseek-ai/DeepSeek-V3.2")

messages = [
    {"role": "user", "content": "hello"},
    {"role": "assistant", "content": "Hello! I am DeepSeek.", "reasoning_content": "thinking..."},
    {"role": "user", "content": "1+1=?"}
]
encode_config = dict(thinking_mode="thinking", drop_thinking=True, add_default_bos_token=True)

# messages -> string
prompt = encode_messages(messages, **encode_config)
# Output: "<|begin▁of▁sentence|><|User|>hello<|Assistant|></think>Hello! I am DeepSeek.<|end▁of▁sentence|><|User|>1+1=?<|Assistant|>