OpenCoder 是一个开放且可复现的代码 LLM 系列,包含 1.5B 和 8B 模型,支持英语和中文的聊天。
1.5b 8b
26.2K 拉取 更新于 3 个月前
3 个月前更新
3 个月前
51ed11a37a94 · 16GB
模型
架构llama
·
参数7.77B
·
量化F16
16GB
系统
你是 OpenCoder,由 OpenCoder 团队创建。
45B
参数
{ "stop": [ "<|im_start|>", "<|im_end|>", "<|fim_prefix|>", "<|f
164B
模板
{{- range $i, $_ := .Messages }} {{- $last := eq (len (slice $.Messages $i)) 1 -}} <|im_start|>{{ .R
241B
许可
版本发布日期:2024 年 7 月 16 日。通过使用该模型进行以下任何活动
6.2kB
自述文件
OpenCoder 是一个开放且可复现的代码 LLM 系列,包含 1.5B 和 8B 模型,支持英语和中文。 OpenCoder 从零开始,经过 2.5 万亿 tokens 的预训练,其中 90% 是原始代码,10% 是与代码相关的网络数据,并在超过 450 万个高质量 SFT 示例上进行了监督微调,最终达到了顶级代码 LLM 的性能。我们不仅提供模型权重和推理代码,还提供可复现的训练数据、完整的数据处理流程、严格的实验消融结果和详细的训练协议。 OpenCoder 为研究人员构建和创新赋能,是您推进代码 AI 的开放基础。
- 完全开源:OpenCoder 通过发布模型权重和即将发布的推理代码以及用于训练的完整数据清理代码来确保完全透明。 此版本包括高质量的合成数据、大量的检查点和超过 450 万个监督微调 (SFT) 条目的数据集,使 OpenCoder 成为最全面的开源模型之一。
- 全面的实验分析:OpenCoder 通过对各种数据清理策略和训练过程进行广泛的消融研究进行了严格的测试,包括文件级别和存储库级别的重复数据删除实验,确保彻底探索和验证模型的性能。
- 高质量合成数据:OpenCoder 提供完全开发的合成数据生成过程和超过 450 万个 SFT 数据条目,为模型训练和评估建立强大的数据基础。
- 卓越的性能:OpenCoder 在多个语言模型基准测试中实现了高性能,使其成为代码领域领先的开源模型之一。