Solar Pro 预览版:一款具有 220 亿参数的高级大型语言模型 (LLM),旨在适应单个 GPU

22b

32.1K 5 个月前

自述文件

Solar Pro 预览版是一款具有 220 亿参数的高级大型语言模型 (LLM),经过优化可在单个 GPU 上运行。 它展示了优于参数少于 300 亿的 LLM 的卓越性能,并提供与更大的模型(例如 Llama 3.1(具有 700 亿个参数))相当的结果。

Solar Pro 预览版采用深度向上扩展方法的增强版本开发,将具有 140 亿个参数的 Phi-3-medium 模型扩展到 220 亿个参数,旨在在具有 80GB VRAM 的 GPU 上运行。 训练策略和数据集经过精心策划,从而在 Phi-3-medium 上实现了显着的性能改进,尤其是在 MMLU-Pro 和 IFEval 等基准测试中,这些基准测试评估模型 的知识和指令遵循能力。

作为官方 Solar Pro 的预发布版本,Solar Pro 预览版在语言覆盖范围和 4K 的最大上下文长度方面存在限制。 尽管存在这些限制,但该模型仍以其效率和能力脱颖而出,并有可能在未来扩展以支持更多语言和功能。

计划于 2024 年 11 月发布的 Solar Pro 正式版将包括扩展的语言支持和更长的上下文窗口。

参考文献

博客文章

Hugging Face