最新
4.1GB q4_0 最新
4.1GB 177次提取 更新于4个月前
更新于4个月前
4个月前
2f1fb51a207f · 2.7GB
使用llama.cpp提交fa97464进行量化。
原始模型: https://hugging-face.cn/cognitivecomputations/dolphin-2.8-experiment26-7b
下面下载文件(不是整个分支)
文件名 | 量化类型 | 文件大小 | 描述 |
---|---|---|---|
dolphin-2.8-experiment26-7b-Q8_0.gguf | Q8_0 | 7.69GB | 极高的质量,通常不需要但最高可用的量化。 |
dolphin-2.8-experiment26-7b-Q6_K.gguf | Q6_K | 5.94GB | 非常高质量,几乎完美,推荐。 |
dolphin-2.8-experiment26-7b-Q5_K_M.gguf | Q5_K_M | 5.13GB | 高质量,非常可用。 |
海豚-2.8-实验26-7b-Q5_K_S.gguf | Q5_K_S | 4.99GB | 高质量,非常可用。 |
海豚-2.8-实验26-7b-Q5_0.gguf | Q5_0 | 4.99GB | 高质量,旧格式,一般不推荐。 |
海豚-2.8-实验26-7b-Q4_K_M.gguf | Q4_K_M | 4.36GB | 良好质量,类似于每碱基4.25。 |
海豚-2.8-实验26-7b-Q4_K_S.gguf | Q4_K_S | 4.14GB | 稍低质量,但空间节省。 |
海豚-2.8-实验26-7b-Q4_0.gguf | Q4_0 | 4.10GB | decent质量,旧格式,一般不推荐。 |
海豚-2.8-实验26-7b-Q3_K_L.gguf | Q3_K_L | 3.82GB | lower质量但可用,适合RAM容量较低的情况。 |
海豚-2.8-实验26-7b-Q3_K_M.gguf | Q3_K_M | 3.51GB | 更低质量。 |
海豚-2.8-实验26-7b-Q3_K_S.gguf | Q3_K_S | 3.16GB | 低质量,不推荐。 |
海豚-2.8-实验26-7b-Q2_K.gguf | Q2_K | 2.71GB | 极其低质量,不推荐。 |
想支持我的工作?请访问我的 ko-fi 页面:[https://ko-fi.com/bartowski](https://ko-fi.com/bartowski)(不支持跳转)