DeepSeek的第一代推理模型,性能与OpenAI-o1相当,包括六个从基于Llama和Qwen的DeepSeek-R1中提炼出的密集模型。

1.5b 7b 8b 14b 32b 70b 671b

25.5M 4 周前

自述文件

DeepSeek的第一代推理模型,在数学、代码和推理任务中实现了与OpenAI-o1相当的性能。

模型

DeepSeek-R1

ollama run deepseek-r1:671b

提炼模型

DeepSeek团队已经证明,较大模型的推理模式可以被提炼到较小的模型中,从而产生比通过小模型上的RL发现的推理模式更好的性能。

以下是通过对研究社区广泛使用的几个密集模型进行微调,使用DeepSeek-R1生成的推理数据创建的模型。评估结果表明,提炼出的小型密集模型在基准测试中表现非常出色。

DeepSeek-R1-Distill-Qwen-1.5B

ollama run deepseek-r1:1.5b

DeepSeek-R1-Distill-Qwen-7B

ollama run deepseek-r1:7b

DeepSeek-R1-Distill-Llama-8B

ollama run deepseek-r1:8b

DeepSeek-R1-Distill-Qwen-14B

ollama run deepseek-r1:14b

DeepSeek-R1-Distill-Qwen-32B

ollama run deepseek-r1:32b

DeepSeek-R1-Distill-Llama-70B

ollama run deepseek-r1:70b

deepseek

许可

模型权重根据MIT许可证授权。DeepSeek-R1系列支持商业用途,允许进行任何修改和衍生作品,包括但不限于为训练其他LLM而进行的提炼。请注意

Qwen提炼模型源自Qwen-2.5系列,该系列最初根据Apache 2.0许可证授权,现在使用DeepSeek-R1整理的80万个样本进行微调。

Llama 8B提炼模型源自Llama3.1-8B-Base,最初根据llama3.1许可证授权。

Llama 70B提炼模型源自Llama3.3-70B-Instruct,最初根据llama3.3许可证授权。