H
HauhauCS/Gemma-4-E4B-Uncensored-HauhauCS-Aggressive
模型介绍文件和版本分析
下载使用量0

Gemma-4-E4B-Uncensored-HauhauCS-Aggressive

加入 Discord 获取更新、路线图、项目信息,或单纯闲聊。

Gemma 4 E4B-IT 由 HauhauCS 解除审查。0/465 拒绝率*

HuggingFace 的“硬件兼容性”小部件无法识别 K_P 量化版本——它显示的文件数量可能少于实际存在的数量。请点击 “查看 +X 个变体” 或前往 文件和版本 查看所有可用下载。

关于

未对数据集或功能进行任何更改。完全功能正常,100% 保留原作者的设计意图——只是去除了拒绝机制。

这些模型旨在成为市面上最佳的无损解除审查模型。

激进变体

更强的解除审查力度——模型完全解锁,不会拒绝任何提示词。偶尔可能会附加简短的免责声明(这是基础模型训练时自带的,并非拒绝响应),但完整内容总会生成。

如果需要保留部分安全防护的保守型解除审查版本,请在平衡变体发布后查看。

下载

文件量化方式每权重比特数大小
Gemma-4-E4B-Uncensored-HauhauCS-Aggressive-Q8_K_P.ggufQ8_K_P9.47.6 GB
—Q8_08.5—
Gemma-4-E4B-Uncensored-HauhauCS-Aggressive-Q6_K_P.ggufQ6_K_P7.05.9 GB
—Q6_K6.6—
Gemma-4-E4B-Uncensored-HauhauCS-Aggressive-Q5_K_P.ggufQ5_K_P6.15.5 GB
Gemma-4-E4B-Uncensored-HauhauCS-Aggressive-Q5_K_M.ggufQ5_K_M5.75.4 GB
Gemma-4-E4B-Uncensored-HauhauCS-Aggressive-Q4_K_P.ggufQ4_K_P5.25.1 GB
Gemma-4-E4B-Uncensored-HauhauCS-Aggressive-Q4_K_M.ggufQ4_K_M4.85.0 GB
Gemma-4-E4B-Uncensored-HauhauCS-Aggressive-IQ4_XS.ggufIQ4_XS4.34.8 GB
Gemma-4-E4B-Uncensored-HauhauCS-Aggressive-Q3_K_P.ggufQ3_K_P4.14.6 GB
Gemma-4-E4B-Uncensored-HauhauCS-Aggressive-Q3_K_M.ggufQ3_K_M3.94.6 GB
Gemma-4-E4B-Uncensored-HauhauCS-Aggressive-IQ3_M.ggufIQ3_M3.74.4 GB
Gemma-4-E4B-Uncensored-HauhauCS-Aggressive-Q2_K_P.ggufQ2_K_P3.54.2 GB
mmproj-Gemma-4-E4B-Uncensored-HauhauCS-Aggressive-f16.ggufmmproj (f16)—945 MB

所有量化版本均使用重要性矩阵(imatrix)生成,以在权重压缩的情况下实现最佳质量保留。

什么是 K_P 量化版本?

K_P(“完美”)量化版本是 HauhauCS 的自定义量化方式,它通过特定模型分析,有选择地在最关键的地方保留质量。每个模型都有其专属的优化量化配置文件。

K_P 量化版本能将质量有效提升 1-2 个量化等级,而文件大小仅比基础量化版本大 ~5-15%。完全兼容 llama.cpp、LM Studio 以及任何 GGUF 兼容的运行时——无需特殊构建版本。

注意: 在 LM Studio 的量化列中,K_P 量化版本可能显示为“?”。这仅为显示问题——模型加载和运行均正常。

规格

  • 40 亿参数
  • 42 层,混合滑动窗口(512)+ 全注意力机制
  • 131K 上下文长度
  • 原生多模态(文本、图像、视频、音频)
  • 18 层 KV 共享,提升内存效率
  • 基于 google/gemma-4-e4b-it

推荐设置

来自 Google Gemma 4 官方作者:

  • temperature=1.0, top_p=0.95, top_k=64

重要提示:

  • 在 llama.cpp 中使用 --jinja 标志以正确处理聊天模板
  • 视觉/音频支持需要 mmproj 文件与主 GGUF 文件放在一起

使用方法

适用于 llama.cpp、LM Studio、Jan、koboldcpp 以及其他 GGUF 兼容的运行时。

# Text only
llama-cli -m Gemma-4-E4B-Uncensored-HauhauCS-Aggressive-Q4_K_M.gguf \
  --jinja -c 8192 -ngl 99

# With vision/audio
llama-cli -m Gemma-4-E4B-Uncensored-HauhauCS-Aggressive-Q4_K_M.gguf \
  --mmproj mmproj-Gemma-4-E4B-Uncensored-HauhauCS-Aggressive-f16.gguf \
  --jinja -c 8192 -ngl 99

* 与我其他版本相比,Gemma 4 在长上下文方面的人工测试时间相对较少。谷歌目前采用了类似 NVIDIA GenRM(生成式奖励模型,充当内部评估器)的技术,这使得(真正的)无审查工作变得日益具有挑战性。我预计 99.999% 的用户不会遇到边缘情况,但为了诚实起见,特此标注星号说明。