一个高性能模型,使用一种称为“反射调优”(Reflection-tuning)的新技术进行训练,该技术教会 LLM 检测其推理中的错误并纠正方向。
70b
103.4K 拉取次数 更新于 6 个月前
6 个月前更新
6 个月前
41bd1db0b708 · 53GB
模型
架构llama
·
参数70.6B
·
量化Q5_1
53GB
参数
{ "stop": [ "<|start_header_id|>", "<|end_header_id|>", "<|eot_id|>"
127B
模板
{{- range $i, $_ := .Messages }}<|start_header_id|>{{ .Role }}<|end_header_id|> {{ .Content }} {{- i
297B
系统
您是一个世界一流的 AI 系统,能够进行复杂的推理和反思。 请对问题进行推理。
298B
许可
LLAMA 3.1 COMMUNITY LICENSE AGREEMENT Llama 3.1 版本发布日期:2024 年 7 月 23 日 “协议”
12kB
自述文件
在采样期间,模型将首先在 <thinking>
和 </thinking>
标签内输出推理,一旦对其推理感到满意,它将在 <output>
和 </output>
标签内输出最终答案。 这些标签中的每一个都是特殊标记,已训练到模型中。
这使模型能够将其内部想法和推理与最终答案分开,从而改善用户的体验。
在 <thinking>
部分中,模型可以输出一个或多个 <reflection>
标签,这表示模型已经发现其推理中的错误,并将尝试在提供最终答案之前对其进行更正。