deepseek-coder-v2:236b-base-q4_K_S

230万 1年前

一个开源的混合专家(Mixture-of-Experts)代码语言模型,在代码相关任务中实现了与GPT4-Turbo相当的性能。

16b 236b
ollama run deepseek-coder-v2:236b-base-q4_K_S

详情

1年前

4e51408d2392 · 134GB ·

deepseek2
·
236B
·
Q4_K_S
DEEPSEEK 许可协议 1.0 版,2023 年 10 月 23 日 版权所有 © 2023 DeepSeek 第 1 条:前言
MIT 许可证 版权所有 (c) 2023 DeepSeek 经此特此授予任何人免费使用许可
{ "stop": [ "System:", "User:", "Assistant:", "<|begin_of_text|>
{{- if .Suffix }}<|fim_begin|>{{ .Prompt }}<|fim_hole|>{{ .Suffix }}<|fim_end|> {{- else }}{{ .Promp

自述文件

DeepSeek-Coder-V2是一个开源的混合专家(MoE)代码语言模型,在代码相关任务中实现了与GPT4-Turbo相当的性能。DeepSeek-Coder-V2进一步从DeepSeek-Coder-V2-Base上进行预训练,使用了来自高质量和多源语料库的6万亿个token。

参考文献

Hugging Face