更新于 16 个月前
16 个月前
d2efb1f4a053 · 5.9GB
model
架构llama
·
参数7.24B
·
量化Q6_K
5.9GB
params
{ "num_ctx": 131072 }
18B
自述文件
Yarn Mistral 是基于 Mistral 的模型,它将其上下文大小扩展到 128k 上下文。 它由 Nous Research 开发,通过实施 YaRN 方法来进一步训练该模型以支持更大的上下文窗口。
CLI
64k 上下文大小
ollama run yarn-mistral
128k 上下文大小
ollama run yarn-mistral:7b-128k
API
示例
curl -X POST http://localhost:11434/api/generate -d '{
"model": "yarn-mistral:7b-128k",
"prompt":"Here is a story about llamas eating grass"
}'