DeepSeek的第一代推理模型,性能与OpenAI-o1相当,包括六个基于Llama和Qwen,从DeepSeek-R1蒸馏得到的密集模型。

1.5b 7b 8b 14b 32b 70b 671b

25.5M 4 周前

自述文件

DeepSeek的第一代推理模型,在数学、代码和推理任务中实现了与OpenAI-o1相当的性能。

模型

DeepSeek-R1

ollama run deepseek-r1:671b

蒸馏模型

DeepSeek团队已经证明,大型模型的推理模式可以被提炼成小型模型,与小型模型通过RL发现的推理模式相比,可以获得更好的性能。

以下是针对研究社区广泛使用的几个密集模型,使用DeepSeek-R1生成的推理数据进行微调创建的模型。 评估结果表明,蒸馏后的小型密集模型在基准测试中表现异常出色。

DeepSeek-R1-Distill-Qwen-1.5B

ollama run deepseek-r1:1.5b

DeepSeek-R1-Distill-Qwen-7B

ollama run deepseek-r1:7b

DeepSeek-R1-Distill-Llama-8B

ollama run deepseek-r1:8b

DeepSeek-R1-Distill-Qwen-14B

ollama run deepseek-r1:14b

DeepSeek-R1-Distill-Qwen-32B

ollama run deepseek-r1:32b

DeepSeek-R1-Distill-Llama-70B

ollama run deepseek-r1:70b

deepseek

许可

模型权重根据 MIT 许可证授权。 DeepSeek-R1 系列支持商业用途,允许任何修改和衍生作品,包括但不限于用于训练其他 LLM 的蒸馏。 请注意,

Qwen 蒸馏模型源自 Qwen-2.5 系列,该系列最初在 Apache 2.0 许可证下获得许可,现在使用 DeepSeek-R1 策划的 80 万个样本进行微调。

Llama 8B 蒸馏模型源自 Llama3.1-8B-Base,最初在 llama3.1 许可证下获得许可。

Llama 70B 蒸馏模型源自 Llama3.3-70B-Instruct,最初在 llama3.3 许可证下获得许可。