更新于 3 个月前
3 个月前
f08f378f040a · 5.2GB
模型
架构qwen2
·
参数8.55B
·
量化Q4_K_M
5.2GB
参数
{ "stop": [ "<|im_start|>", "<|im_end|>" ] }
59B
模板
{{- range $i, $_ := .Messages }} {{- $last := eq (len (slice $.Messages $i)) 1 -}} <|im_start|>{{ .R
255B
系统
你是一个名为 Sailor2 的 AI 助手,由 Sea AI Lab 创建。 作为一个 AI 助手,你可以回答问题
364B
自述文件
Sailor2 是一项社区驱动的计划,旨在为东南亚 (SEA) 带来最先进的多语言语言模型。 我们的研究强调了对用于生产的 8B 和 20B 参数范围内的模型以及用于推测性解码和研究目的等专门应用的 1B 模型的强烈需求。 这些模型以 Apache 2.0 许可发布,提高了该地区对先进语言技术的访问性。
Sailor2 基于出色的多语言模型 Qwen 2.5 的基础构建,并在 500B tokens 上持续预训练,以通过统一模型更好地支持 15 种语言。 这些语言包括英语、中文、缅甸语、宿务语、伊洛卡诺语、印度尼西亚语、爪哇语、高棉语、老挝语、马来语、巽他语、他加禄语、泰语、越南语和瓦赖语。 通过满足对多样化、强大且可访问的语言模型日益增长的需求,Sailor2 旨在通过开放、包容和可访问的多语言 LLM 为 SEA 地区服务不足的人群提供服务。 Sailor2 模型有三种尺寸:1B、8B 和 20B,它们分别从 0.5B、7B 和 14B 的 Qwen2.5 基础模型扩展而来。