8 个月前更新
8 个月前
dc16a9f67701 · 142GB
模型
架构deepseek2
·
参数236B
·
量化Q4_K_M
142GB
参数
{ "stop": [ "User:", "Assistant:" ] }
32B
模板
{{ if .System }}{{ .System }} {{ end }}{{ if .Prompt }}User: {{ .Prompt }} {{ end }}Assistant:{{ .
111B
许可
DEEPSEEK 许可协议 1.0 版本,2023 年 10 月 23 日 版权所有 (c) 2023 DeepSeek 第一节:PR
14kB
自述文件
注意:此模型需要 Ollama 0.1.40。
DeepSeek-V2 是一个强大的专家混合 (MoE) 语言模型,其特点是训练经济高效且推理高效。
注意:此模型支持英语和中文双语。
该模型有两个大小
- 16B Lite:
ollama run deepseek-v2:16b
- 236B:
ollama run deepseek-v2:236b