deepseek-coder-v2:16b-lite-base-q5_0

230万 1年前

一个开源的混合专家(Mixture-of-Experts)代码语言模型,在代码相关任务中实现了与GPT4-Turbo相当的性能。

16b 236b
ollama run deepseek-coder-v2:16b-lite-base-q5_0

详情

1年前

cd16e96f0530 · 11GB ·

deepseek2
·
15.7B
·
Q5_0
{{- if .Suffix }}<|fim▁begin|>{{ .Prompt }}<|fim▁hole|>{{ .Suffix }}<|fim▁end|> {{
DEEPSEEK 许可协议 1.0 版,2023 年 10 月 23 日 版权所有 © 2023 DeepSeek 第 1 条:前言
MIT 许可证 版权所有 (c) 2023 DeepSeek 经此特此授予任何人免费使用许可

自述文件

DeepSeek-Coder-V2是一个开源的混合专家(MoE)代码语言模型,在代码相关任务中实现了与GPT4-Turbo相当的性能。DeepSeek-Coder-V2进一步从DeepSeek-Coder-V2-Base上进行预训练,使用了来自高质量和多源语料库的6万亿个token。

参考文献

Hugging Face