结合4个最佳7B模型的MoE模型

2,156 pull 更新于5个月前

5个月前

7ebebec9fa7c · 14GB

README

这是一个中等规模的MoE模型,结合了 openchat/openchat-3.5-1210beowolx/CodeNinja-1.0-OpenChat-7Bmaywell/PiVoT-0.1-Starling-LM-RPWizardLM/WizardMath-7B-V1.1

我认为这个模型非常好。轻量级且优于Mixtral。

这是模型的V2版本,包含了最新更新的量化信息(The Bloke的量化信息已过时)。

如有问题,请随时联系我

Reddit: /u/spooknik | Discord: .spooknik