更新于 16 个月前
16 个月前
6c618202668d · 9.2GB
model
archllama
·
parameters13B
·
quantizationQ5_K_M
9.2GB
params
{ "num_ctx": 131072 }
18B
自述文件
Yarn Llama 2 是基于 Llama2 的模型,它将其上下文大小扩展到高达 128k 上下文。它由 Nous Research 开发,通过实现 YaRN 方法进一步训练模型以支持更大的上下文窗口。
CLI
64k 上下文大小
ollama run yarn-llama2
128k 上下文大小
ollama run yarn-llama2:7b-128k
API
示例
curl -X POST https://:11434/api/generate -d '{
"model": "yarn-llama2:7b-128k",
"prompt":"Here is a story about llamas eating grass"
}'