结合4个最佳7B模型的MoE模型

2,156次提取 更新于5个月前

说明文档

原始模型 | GGUF 量化

这是一个中等大小的 MoE 模型,结合了 openchat/openchat-3.5-1210beowolx/CodeNinja-1.0-OpenChat-7Bmaywell/PiVoT-0.1-Starling-LM-RP 以及 WizardLM/WizardMath-7B-V1.1.

我认为这个模型非常好。更轻量,比 Mixtral 好。

这是模型的 V2 版本,包含了最新更新中的量化内容(The Bloke 的量化已经过时)。

如有问题,请随时联系我

Reddit: /u/spooknik | Discord: .spooknik