Qwen2 MOE 57B

376 拉取 2 个月前更新

2 个月前

5137995288ad · 47GB

README

Qwen2-57B-A14B-Instruct
截屏2024-06-09 07.10.44.png

简介

截屏2024-06-09 07.11.54.png

Qwen2是Qwen大型语言模型的新系列。对于Qwen2,我们发布了从0.5到72亿的多个基语言模型和指令微调语言模型,包括混合专家模型。此存储库包含指令微调的57B-A14B混合专家Qwen2模型。

与最先进的开源语言模型相比,包括之前发布的Qwen1.5,Qwen2在大多数开源模型中普遍超越,并在一系列针对语言理解、语言生成、多语言能力、编码、数学、推理等方面的基准测试中与专有模型竞争。

Qwen2-57B-A14B-Instruct支持最多65536个标记的上下文长度,能够处理大量输入。请参阅本节以获取有关如何部署Qwen2处理长文本的详细信息。

更详细的信息,请参阅我们的博客和GitHub。

模型详情

Qwen2是一个包括不同大小解码器语言模型的系列。对于每个大小,我们发布基语言模型和对齐聊天模型。它基于具有SwiGLU激励函数、QKV偏差、分组查询注意力等的Transformer架构。此外,我们还有一个适用于多种自然语言和代码的改进分词器。

评估

我们简要比较了Qwen2-57B-A14B-Instruct与相同大小的指令微调大型语言模型,包括Qwen1.5-32B-Chat。结果如下

截屏2024-06-09 06.59.57.png

https://hf-mirror.com/Qwen/Qwen2-57B-A14B-Instruct导入

微信号:TAOZHIYUAI