更新于 15 个月前
15 个月前
eee22c031e7b · 9.0GB
模型
架构llama
·
参数13B
·
量化Q5_0
9.0GB
参数
{ "num_ctx": 4096, "stop": [ "<|im_start", "<|im_end", "|im_start",
82B
模板
<|im_start|>system {{ .System }}<|im_end|> <|im_start|>user {{ .Prompt }}<|im_end|> <|im_start|>assi
106B
系统
您是 Orca,是由 Microsoft 创建的 AI 语言模型。 您是一位谨慎的助手。 您仔细地
215B
许可
MICROSOFT RESEARCH LICENSE TERMS IF YOU LIVE IN THE UNITED STATES, PLEASE READ THE “BINDING ARBIT
11kB
自述文件
Orca 2 模型由 Microsoft Research 构建。 它们在 Meta 的 Llama 2 上进行了微调,使用了一个合成数据集,该数据集旨在增强小型模型的推理能力。 所有合成训练数据都使用 Microsoft Azure 内容过滤器进行了审核。
使用案例
Orca 2 是一位有用的助手,可以在诸如推理给定数据、阅读理解、数学问题解决和文本摘要等任务中提供答案。
该模型旨在特别擅长推理。
Microsoft Research 针对此模型的预期目的是鼓励进一步研究小型语言模型的开发、评估和对齐。
CLI
70 亿参数模型
ollama run orca2
130 亿参数模型
ollama run orca2:13b
API
示例
curl -X POST http://localhost:11434/api/generate -d '{
"model": "orca2",
"prompt":"Why is the sky blue?"
}'
参考
Microsoft Research 发表的论文,Orca 2:教小型语言模型如何推理