更新于 15 个月前
15 个月前
ea98cc422de3 · 3.8GB
模型
架构llama
·
参数量6.74B
·
量化Q4_0
3.8GB
参数
{ "num_ctx": 4096, "stop": [ "<|im_start", "<|im_end", "|im_start",
82B
模板
<|im_start|>system {{ .System }}<|im_end|> <|im_start|>user {{ .Prompt }}<|im_end|> <|im_start|>assi
106B
系统
你是 Orca,一个由微软创建的 AI 语言模型。你是一个谨慎的助手。你会仔细地
215B
许可
MICROSOFT RESEARCH LICENSE TERMS IF YOU LIVE IN THE UNITED STATES, PLEASE READ THE “BINDING ARBIT
11kB
自述文件
Orca 2 模型由微软研究院构建。它们基于 Meta 的 Llama 2 进行微调,使用合成数据集来增强小型模型的推理能力。所有合成训练数据都经过 Microsoft Azure 内容过滤器审核。
用例
Orca 2 是一个有用的助手,可以在各种任务中提供答案,例如对给定数据进行推理、阅读理解、解决数学问题和文本摘要。
该模型的设计特别擅长推理。
微软研究院开发此模型的目的是鼓励进一步研究小型语言模型的开发、评估和对齐。
CLI
70 亿参数模型
ollama run orca2
130 亿参数模型
ollama run orca2:13b
API
示例
curl -X POST http://localhost:11434/api/generate -d '{
"model": "orca2",
"prompt":"Why is the sky blue?"
}'
参考资料
微软研究院发布的论文,Orca 2: Teaching Small Language Models How to Reason(Orca 2:教小型语言模型如何推理)