DeepSeek 的第一代推理模型,性能与 OpenAI-o1 相当,包括基于 Llama 和 Qwen 从 DeepSeek-R1 提炼出的六个密集模型。
					
					
					
					
						1.5b 7b 8b 14b 32b 70b 671b
				25.5M 拉取次数 更新于 4 周前
7 周前更新
7 周前
ea35dfe18182 · 9.0GB
 模型 
 架构qwen2
 ·
 参数14.8B
 ·
 量化Q4_K_M
  9.0GB 
    参数 
  { "stop": [ "<|begin of sentence|>", "<|end of sentence|>", 
  148B 
    模板 
  {{- if .System }}{{ .System }}{{ end }} {{- range $i, $_ := .Messages }} {{- $last := eq (len (slice 
  387B 
    许可 
  MIT License Copyright (c) 2023 DeepSeek Permission is hereby granted, free of charge, to any perso 
  1.1kB 
 自述文件
DeepSeek 的第一代推理模型,在数学、代码和推理任务中实现了与 OpenAI-o1 相当的性能。
模型
DeepSeek-R1
ollama run deepseek-r1:671b
蒸馏模型
DeepSeek 团队已经证明,大型模型的推理模式可以被提炼成小型模型,从而与通过 RL 在小型模型上发现的推理模式相比,性能更好。
以下是通过微调几个广泛用于研究社区的密集模型,并使用 DeepSeek-R1 生成的推理数据创建的模型。 评估结果表明,经过蒸馏的小型密集模型在基准测试中表现非常出色。
DeepSeek-R1-Distill-Qwen-1.5B
ollama run deepseek-r1:1.5b
DeepSeek-R1-Distill-Qwen-7B
ollama run deepseek-r1:7b
DeepSeek-R1-Distill-Llama-8B
ollama run deepseek-r1:8b
DeepSeek-R1-Distill-Qwen-14B
ollama run deepseek-r1:14b
DeepSeek-R1-Distill-Qwen-32B
ollama run deepseek-r1:32b
DeepSeek-R1-Distill-Llama-70B
ollama run deepseek-r1:70b
许可
模型权重根据 MIT 许可证获得许可。 DeepSeek-R1 系列支持商业用途,允许任何修改和衍生作品,包括但不限于为训练其他 LLM 进行的提炼。 请注意,
Qwen 蒸馏模型源自 Qwen-2.5 系列,该系列最初根据 Apache 2.0 许可证获得许可,现在使用由 DeepSeek-R1 策划的 80 万个样本进行微调。
Llama 8B 蒸馏模型源自 Llama3.1-8B-Base,最初根据 llama3.1 许可证获得许可。
Llama 70B 蒸馏模型源自 Llama3.3-70B-Instruct,最初根据 llama3.3 许可证获得许可。