最新
15GB q4_k_m 最新
15GB 2,156 拉取 更新于5个月前
这是一个中等规模的MoE模型,结合了openchat/openchat-3.5-1210、beowolx/CodeNinja-1.0-OpenChat-7B、maywell/PiVoT-0.1-Starling-LM-RP和WizardLM/WizardMath-7B-V1.1。
我认为这个模型非常好,体积更轻,比Mixtral好。
这是模型的V2版本,具有最新更新的量化(The Bloke的量化已过时)。
如有问题,请随时联系我。
Reddit: /u/spooknik | Discord: .spooknik