m
mradermacher/Miner-8B-i1-GGUF
模型介绍文件和版本分析
下载使用量0

关于

https://huggingface.co/pixas/Miner-8B 的加权/矩阵量化版本

如需便捷概览和下载列表,请访问我们的此模型专属页面。

静态量化版本可在 https://huggingface.co/mradermacher/Miner-8B-GGUF 获取

使用方法

若您不确定如何使用 GGUF 文件,请参考 TheBloke 的 README 文档 以获取更多详情,包括如何拼接多部分文件。

提供的量化版本

(按大小排序,不代表质量排序。通常,IQ 量化版本优于同等大小的非 IQ 量化版本)

链接类型大小/GB说明
GGUFimatrix0.1矩阵文件(用于创建您自己的量化版本)
GGUFi1-IQ1_S2.2适用于存储空间极度紧张的情况
GGUFi1-IQ1_M2.4主要适用于存储空间紧张的情况
GGUFi1-IQ2_XXS2.6
GGUFi1-IQ2_XS2.8
GGUFi1-IQ2_S3.0
GGUFi1-IQ2_M3.2
GGUFi1-Q2_K_S3.2质量极低
GGUFi1-Q2_K3.4IQ3_XXS 可能更优
GGUFi1-IQ3_XXS3.5质量较低
GGUFi1-IQ3_XS3.7
GGUFi1-Q3_K_S3.9IQ3_XS 可能更优
GGUFi1-IQ3_S3.9优于 Q3_K*
GGUFi1-IQ3_M4.0
GGUFi1-Q3_K_M4.2IQ3_S 可能更优
GGUFi1-Q3_K_L4.5IQ3_M 可能更优
GGUFi1-IQ4_XS4.7
GGUFi1-Q4_04.9速度快,质量低
GGUFi1-IQ4_NL4.9推荐优先选择 IQ4_XS
GGUFi1-Q4_K_S4.9尺寸/速度/质量平衡最佳
GGUFi1-Q4_K_M5.1速度快,推荐使用
GGUFi1-Q4_15.3
GGUFi1-Q5_K_S5.8
GGUFi1-Q5_K_M6.0
GGUFi1-Q6_K6.8实际效果接近静态 Q6_K

以下是 ikawrakow 制作的对比部分低质量量化类型的实用图表(数值越低越好):

image.png

此外,Artefact2 对此问题的见解如下: https://gist.github.com/Artefact2/b5f810600771265fc1e39442288e8ec9

常见问题 / 模型请求

有关您可能有的问题,以及/或者如果您希望对其他模型进行量化,请参见 https://huggingface.co/mradermacher/model_requests 获取部分解答。

致谢

感谢我的公司 nethype GmbH 允许我使用其服务器,并为我的工作站提供升级,使我能够在业余时间开展这项工作。特别感谢 @nicoboss 让我能够访问他的私人超级计算机,这使我能够提供比原本更多、质量更高的 imatrix 量化版本。