https://huggingface.co/pixas/Miner-8B 的加权/矩阵量化版本
如需便捷概览和下载列表,请访问我们的此模型专属页面。
静态量化版本可在 https://huggingface.co/mradermacher/Miner-8B-GGUF 获取
若您不确定如何使用 GGUF 文件,请参考 TheBloke 的 README 文档 以获取更多详情,包括如何拼接多部分文件。
(按大小排序,不代表质量排序。通常,IQ 量化版本优于同等大小的非 IQ 量化版本)
| 链接 | 类型 | 大小/GB | 说明 |
|---|---|---|---|
| GGUF | imatrix | 0.1 | 矩阵文件(用于创建您自己的量化版本) |
| GGUF | i1-IQ1_S | 2.2 | 适用于存储空间极度紧张的情况 |
| GGUF | i1-IQ1_M | 2.4 | 主要适用于存储空间紧张的情况 |
| GGUF | i1-IQ2_XXS | 2.6 | |
| GGUF | i1-IQ2_XS | 2.8 | |
| GGUF | i1-IQ2_S | 3.0 | |
| GGUF | i1-IQ2_M | 3.2 | |
| GGUF | i1-Q2_K_S | 3.2 | 质量极低 |
| GGUF | i1-Q2_K | 3.4 | IQ3_XXS 可能更优 |
| GGUF | i1-IQ3_XXS | 3.5 | 质量较低 |
| GGUF | i1-IQ3_XS | 3.7 | |
| GGUF | i1-Q3_K_S | 3.9 | IQ3_XS 可能更优 |
| GGUF | i1-IQ3_S | 3.9 | 优于 Q3_K* |
| GGUF | i1-IQ3_M | 4.0 | |
| GGUF | i1-Q3_K_M | 4.2 | IQ3_S 可能更优 |
| GGUF | i1-Q3_K_L | 4.5 | IQ3_M 可能更优 |
| GGUF | i1-IQ4_XS | 4.7 | |
| GGUF | i1-Q4_0 | 4.9 | 速度快,质量低 |
| GGUF | i1-IQ4_NL | 4.9 | 推荐优先选择 IQ4_XS |
| GGUF | i1-Q4_K_S | 4.9 | 尺寸/速度/质量平衡最佳 |
| GGUF | i1-Q4_K_M | 5.1 | 速度快,推荐使用 |
| GGUF | i1-Q4_1 | 5.3 | |
| GGUF | i1-Q5_K_S | 5.8 | |
| GGUF | i1-Q5_K_M | 6.0 | |
| GGUF | i1-Q6_K | 6.8 | 实际效果接近静态 Q6_K |
以下是 ikawrakow 制作的对比部分低质量量化类型的实用图表(数值越低越好):

此外,Artefact2 对此问题的见解如下: https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9
有关您可能有的问题,以及/或者如果您希望对其他模型进行量化,请参见 https://huggingface.co/mradermacher/model_requests 获取部分解答。
感谢我的公司 nethype GmbH 允许我使用其服务器,并为我的工作站提供升级,使我能够在业余时间开展这项工作。特别感谢 @nicoboss 让我能够访问他的私人超级计算机,这使我能够提供比原本更多、质量更高的 imatrix 量化版本。