最新
15GB q4_k_m 最新
15GB 2,156 Pulls 更新于5个月前
这是一个中等大小的 MoE 模型,它结合了 openchat/openchat-3.5-1210、beowolx/CodeNinja-1.0-OpenChat-7B、maywell/PiVoT-0.1-Starling-LM-RP 和 WizardLM/WizardMath-7B-V1.1.
我发现在这个模型非常好。比 Mixtral 体积更小,性能更好。
这是模型的 V2 版本,包含了最近更新的量化(The Bloke 的量化已过时)。
如果您遇到任何问题,请随时联系我
Reddit: /u/spooknik | Discord: .spooknik