5 个月前更新
5 个月前
9a8c71c441ca · 13GB
模型
架构solar
·
参数22.1B
·
量化Q4_K_M
13GB
参数
{ "stop": [ "<|im_start|>", "<|im_end|>" ] }
59B
模板
{{- range $index, $_ := .Messages }}<|im_start|>{{ .Role }} {{ .Content }} {{- if eq (len (slice $.M
232B
许可证
MIT License Copyright (c) Upstage Corporation. 兹授予任何人免费获得本
1.1kB
自述文件
Solar Pro 预览版是一个拥有 220 亿参数的先进大型语言模型 (LLM),经过优化可在单个 GPU 上运行。它展现了优于参数少于 300 亿的 LLM 的卓越性能,并提供了与更大的模型(例如 Llama 3.1,拥有 700 亿参数)相当的结果。
Solar Pro 预览版采用增强版本的深度向上扩展方法开发,将拥有 140 亿参数的 Phi-3-medium 模型扩展到 220 亿,旨在在具有 80GB VRAM 的 GPU 上运行。训练策略和数据集经过精心策划,与 Phi-3-medium 相比,性能显着提高,尤其是在 MMLU-Pro 和 IFEval 等基准测试中,这些基准测试评估了模型的知识和指令遵循能力。
作为官方 Solar Pro 的预发布版本,Solar Pro 预览版在语言覆盖范围和 4K 的最大上下文长度方面存在限制。尽管存在这些限制,该模型仍以其效率和能力而脱颖而出,并具有未来扩展以支持更多语言和功能的潜力。
计划于 2024 年 11 月发布的 Solar Pro 官方版本将包括扩展的语言支持和更长的上下文窗口。