本仓库提供 Qwen3-VL-2B-Thinking 的 GGUF 格式权重,分为两个组件:
mmproj):FP16、Q8_0这些文件与 llama.cpp、Ollama 及其他基于 GGUF 的工具兼容,支持在 CPU、NVIDIA GPU(CUDA)、Apple Silicon(Metal)、Intel GPU(SYCL)等平台上进行推理。
您可以根据硬件条件和性能需求,为语言和视觉组件混合使用不同的精度级别,甚至可以从 FP16 权重开始进行自定义量化。
尽情在个人设备上运行这款多模态模型吧!🚀
Qwen3-VL——通义千问系列迄今最强大的视觉语言模型。
这一代模型实现了全面升级:更卓越的文本理解与生成能力、更深入的视觉感知与推理能力、更长的上下文长度、更强的空间与视频动态理解能力,以及更优的智能体交互能力。
提供从边缘端到云端的 Dense 和 MoE 两种架构,并有指令优化版(Instruct)和推理增强版(Thinking),可灵活按需部署。
视觉智能体:操控电脑/手机图形界面——识别元素、理解功能、调用工具、完成任务。
视觉编码助力:从图像/视频生成 Draw.io/HTML/CSS/JS 代码。
高级空间感知:判断物体位置、视角和遮挡关系;提供更强的 2D 定位能力,并支持 3D 定位,赋能空间推理与具身智能。
长上下文与视频理解:原生支持 256K 上下文,可扩展至 1M;处理整本书籍和数小时视频,实现完整回忆与秒级索引。
增强多模态推理:擅长 STEM/数学领域——因果分析与基于证据的逻辑解答。
升级视觉识别:更广泛、更高质量的预训练,实现“万物可识”——名人、动漫、商品、地标、动植物等。
扩展 OCR 能力:支持 32 种语言(此前为 19 种);在低光、模糊、倾斜场景下表现稳定;优化生僻字、古文字和专业术语识别;提升长文档结构解析能力。
文本理解媲美纯语言模型:无缝融合文本与视觉信息,实现无损统一理解。
Interleaved-MRoPE:通过稳健的位置嵌入,在时间、宽度和高度维度上实现全频率分配,增强长时视频推理能力。
DeepStack:融合多级 ViT 特征,捕捉细粒度细节,提升图文对齐精度。
文本-时间戳对齐:超越 T-RoPE,实现精确的时间戳级事件定位,强化视频时序建模。
多模态性能

纯文本性能

若要在 llama.cpp 中使用这些模型,请确保您使用的是最新版本——可通过 从源代码构建,或根据设备下载最新的 发布版本。
您可以通过命令行或基于网页的聊天界面进行推理。
llama-mtmd-cli)例如,要运行 Qwen3-VL-2B-Instruct,使用 FP16 视觉编码器和 Q8_0 量化的 LLM:
llama-mtmd-cli \
-m path/to/Qwen3VL-2B-Thinking-Q8_0.gguf \
--mmproj path/to/mmproj-Qwen3VL-2B-Thinking-F16.gguf \
--image test.jpeg \
-p "What is the publisher name of the newspaper?" \
--temp 1.0 --top-k 20 --top-p 0.95 -n 1024llama-server)若要通过兼容 OpenAI 的 API 并配合 Web UI 来部署 Qwen3-VL-235B-A22B-Instruct:
llama-server \
-m path/to/Qwen3VL-235B-A22B-Instruct-Q4_K_M-split-00001-of-00003.gguf \
--mmproj path/to/mmproj-Qwen3VL-235B-A22B-Instruct-Q8_0.gguf提示:如果模型被分割成多个 GGUF 文件,只需指定第一个分片(例如,
...-00001-of-00003.gguf)。llama.cpp 会自动加载所有部分。
服务器运行后,打开浏览器访问 http://localhost:8080 即可使用内置聊天界面,或向 /v1/chat/completions 端点发送请求。更多详情,请参阅 官方文档。
您可以将 FP16 权重进一步量化为其他精度级别。例如,要将模型量化为 2 位:
# Quantize to 2-bit (IQ2_XXS)
llama-quantize \
path/to/Qwen3VL-235B-A22B-Instruct-F16.gguf \
path/to/Qwen3VL-235B-A22B-Instruct-IQ2_XXS.gguf \
iq2_xxs 8如需查看支持的完整量化类型列表和详细说明,请参阅量化文档。
export greedy='false'
export top_p=0.95
export top_k=20
export repetition_penalty=1.0
export presence_penalty=0.0
export temperature=1.0
export out_seq_length=40960export greedy='false'
export top_p=0.95
export top_k=20
export repetition_penalty=1.0
export presence_penalty=1.5
export temperature=1.0
export out_seq_length=32768 (for aime, lcb, and gpqa, it is recommended to set to 81920)如果您觉得我们的工作对您有所帮助,欢迎引用我们的成果。
@misc{qwen3technicalreport,
title={Qwen3 Technical Report},
author={Qwen Team},
year={2025},
eprint={2505.09388},
archivePrefix={arXiv},
primaryClass={cs.CL},
url={https://arxiv.org/abs/2505.09388},
}
@article{Qwen2.5-VL,
title={Qwen2.5-VL Technical Report},
author={Bai, Shuai and Chen, Keqin and Liu, Xuejing and Wang, Jialin and Ge, Wenbin and Song, Sibo and Dang, Kai and Wang, Peng and Wang, Shijie and Tang, Jun and Zhong, Humen and Zhu, Yuanzhi and Yang, Mingkun and Li, Zhaohai and Wan, Jianqiang and Wang, Pengfei and Ding, Wei and Fu, Zheren and Xu, Yiheng and Ye, Jiabo and Zhang, Xi and Xie, Tianbao and Cheng, Zesen and Zhang, Hang and Yang, Zhibo and Xu, Haiyang and Lin, Junyang},
journal={arXiv preprint arXiv:2502.13923},
year={2025}
}
@article{Qwen2VL,
title={Qwen2-VL: Enhancing Vision-Language Model's Perception of the World at Any Resolution},
author={Wang, Peng and Bai, Shuai and Tan, Sinan and Wang, Shijie and Fan, Zhihao and Bai, Jinze and Chen, Keqin and Liu, Xuejing and Wang, Jialin and Ge, Wenbin and Fan, Yang and Dang, Kai and Du, Mengfei and Ren, Xuancheng and Men, Rui and Liu, Dayiheng and Zhou, Chang and Zhou, Jingren and Lin, Junyang},
journal={arXiv preprint arXiv:2409.12191},
year={2024}
}
@article{Qwen-VL,
title={Qwen-VL: A Versatile Vision-Language Model for Understanding, Localization, Text Reading, and Beyond},
author={Bai, Jinze and Bai, Shuai and Yang, Shusheng and Wang, Shijie and Tan, Sinan and Wang, Peng and Lin, Junyang and Zhou, Chang and Zhou, Jingren},
journal={arXiv preprint arXiv:2308.12966},
year={2023}
}