我们推出DeepSeek-V3.2,这是一款兼顾高计算效率与卓越推理及智能体性能的模型。我们的方法基于三项关键技术突破:
我们还发布了2025年IOI、ICPC世界总决赛、IMO以及CMO的最终提交作品,这些作品是根据我们设计的流水线筛选出来的。这些材料供社区进行二次验证,相关文件可在assets/olympiad_cases目录下获取。
与先前版本相比,DeepSeek-V3.2对其对话模板进行了重大更新。主要变化包括修订的工具调用格式以及新增的“使用工具进行思考”功能。
为帮助社区理解和适应这一新模板,我们提供了专门的encoding文件夹,其中包含Python脚本和测试用例,展示了如何将OpenAI兼容格式的消息编码为模型的输入字符串,以及如何解析模型的文本输出。
下面是一个简要示例:
import transformers
# encoding/encoding_dsv32.py
from encoding_dsv32 import encode_messages, parse_message_from_completion_text
tokenizer = transformers.AutoTokenizer.from_pretrained("deepseek-ai/DeepSeek-V3.2")
messages = [
{"role": "user", "content": "hello"},
{"role": "assistant", "content": "Hello! I am DeepSeek.", "reasoning_content": "thinking..."},
{"role": "user", "content": "1+1=?"}
]
encode_config = dict(thinking_mode="thinking", drop_thinking=True, add_default_bos_token=True)
# messages -> string
prompt = encode_messages(messages, **encode_config)
# Output: "<|begin▁of▁sentence|><|User|>hello<|Assistant|></think>Hello! I am DeepSeek.<|end▁of▁sentence|><|User|>1+1=?<|Assistant|>