Experiment26模型的Dolphin版本(7B参数)

7B

177次提取 更新于4个月前

读我

llamacpp对dolphin-2.8-experiment26-7b的量化

使用llama.cpp提交fa97464进行量化。

原始模型: https://hugging-face.cn/cognitivecomputations/dolphin-2.8-experiment26-7b

下面下载文件(不是整个分支)

文件名 量化类型 文件大小 描述
dolphin-2.8-experiment26-7b-Q8_0.gguf Q8_0 7.69GB 极高的质量,通常不需要但最高可用的量化。
dolphin-2.8-experiment26-7b-Q6_K.gguf Q6_K 5.94GB 非常高质量,几乎完美,推荐。
dolphin-2.8-experiment26-7b-Q5_K_M.gguf Q5_K_M 5.13GB 高质量,非常可用。
海豚-2.8-实验26-7b-Q5_K_S.gguf Q5_K_S 4.99GB 高质量,非常可用。
海豚-2.8-实验26-7b-Q5_0.gguf Q5_0 4.99GB 高质量,旧格式,一般不推荐。
海豚-2.8-实验26-7b-Q4_K_M.gguf Q4_K_M 4.36GB 良好质量,类似于每碱基4.25。
海豚-2.8-实验26-7b-Q4_K_S.gguf Q4_K_S 4.14GB 稍低质量,但空间节省。
海豚-2.8-实验26-7b-Q4_0.gguf Q4_0 4.10GB decent质量,旧格式,一般不推荐。
海豚-2.8-实验26-7b-Q3_K_L.gguf Q3_K_L 3.82GB lower质量但可用,适合RAM容量较低的情况。
海豚-2.8-实验26-7b-Q3_K_M.gguf Q3_K_M 3.51GB 更低质量。
海豚-2.8-实验26-7b-Q3_K_S.gguf Q3_K_S 3.16GB 低质量,不推荐。
海豚-2.8-实验26-7b-Q2_K.gguf Q2_K 2.71GB 极其低质量,不推荐。

想支持我的工作?请访问我的 ko-fi 页面:[https://ko-fi.com/bartowski](https://ko-fi.com/bartowski)(不支持跳转)