Qwen3-VL-4B-Instruct-FP8:Qwen3-VL系列FP8量化版本,采用细粒度128块大小量化,性能接近原始BF16模型。具备视觉感知推理、长上下文视频理解、多语言OCR等增强能力,支持vLLM/SGLang部署。【此简介由AI生成】 - AtomGit AI社区