Qwen2 MOE 57B
376 拉取 更新于2个月前
更新于2个月前
2个月前
080537a690a5 · 35GB
模型
架构qwen2moe
·
参数57.4B
·
量化Q4_K_M
35GB
参数
{"stop":["<|im_start|>","<|im_end|>"]}
59B
模板
{{ if .System }}<|im_start|>system {{ .System }}<|im_end|> {{ end }}{{ if .Prompt }}<|im_start|>user {{ .Prompt }}<|im_end|> {{ end }}<|im_start|>assistant {{ .Response }}<|im_end|>
182B
说明文件
Qwen2-57B-A14B-Instruct
简介
Qwen2是Qwen大型语言模型的新系列。对于Qwen2,我们发布了0.5亿到72亿参数的各种基语言模型和指令微调语言模型,包括混合专家模型。这个仓库包含指令微调的57B-A14B混合专家Qwen2模型。
与最先进的开源语言模型相比,包括之前发布的Qwen1.5,Qwen2在大多数开源模型上普遍超过了,并在一系列针对语言理解、语言生成、多语言能力、编程、数学、推理等的基准测试中表现出与专有模型的竞争力。
Qwen2-57B-A14B-Instruct支持的最大上下文长度为65,536个令牌,能够处理大量输入。请参阅本节了解如何部署Qwen2处理长文本的详细说明。
更多详细信息,请参阅我们的博客和GitHub。
模型详情
Qwen2是一个包括不同规模解码器语言模型的语言模型系列。对于每个大小,我们发布了基语言模型和对齐的聊天模型。它是基于具有SwiGLU激活、注意力QKV偏差、分组查询注意力等的Transformer架构。此外,我们还有一个改进的分词器,适应多种自然语言和代码。
评估
我们简短地比较了Qwen2-57B-A14B-Instruct与类似规模的指令微调LLMs,包括Qwen1.5-32B-Chat。结果如下
从 https://hf-mirror.com/Qwen/Qwen2-57B-A14B-Instruct 导入