更新于 15 个月前
15 个月前
ea98cc422de3 · 3.8GB
模型
架构llama
·
参数6.74B
·
量化Q4_0
3.8GB
参数
{ "num_ctx": 4096, "stop": [ "<|im_start", "<|im_end", "|im_start",
82B
模板
<|im_start|>system {{ .System }}<|im_end|> <|im_start|>user {{ .Prompt }}<|im_end|> <|im_start|>assi
106B
系统
你是 Orca,一个由 Microsoft 创建的 AI 语言模型。 你是一个谨慎的助手。 你仔细地
215B
许可证
MICROSOFT RESEARCH LICENSE TERMS IF YOU LIVE IN THE UNITED STATES, PLEASE READ THE “BINDING ARBIT
11kB
自述文件
Orca 2 模型由微软研究院构建。 它们使用合成数据集在 Meta 的 Llama 2 上进行了微调,该数据集旨在增强小型模型的推理能力。 所有合成训练数据均已使用 Microsoft Azure 内容过滤器进行审核。
用例
Orca 2 是一位有用的助手,可以在诸如对给定数据进行推理、阅读理解、数学问题解决和文本摘要等任务中提供答案。
该模型旨在特别擅长推理。
微软研究院开发此模型的目的是鼓励进一步研究较小语言模型的开发、评估和对齐。
CLI (命令行界面)
70 亿参数模型
ollama run orca2
130 亿参数模型
ollama run orca2:13b
API (应用程序编程接口)
示例
curl -X POST http://localhost:11434/api/generate -d '{
"model": "orca2",
"prompt":"Why is the sky blue?"
}'
参考文献
微软研究院发表的论文,Orca 2:教导小型语言模型如何推理