Mistral AI提供的具有开放权重的优质专家混合(MoE)模型。

13B

156 Pulls 更新于4个月前

README

Mixtral-7Bx2 大型语言模型 (LLM) 是一个经过预训练的稀疏混合专家。

@HuggingFace https://hugging-face.cn/ManniX-ITA/Mixtral_7Bx2_MoE-GGUF