更新于 16 个月前
16 个月前
c910ed0b2220 · 3.5GB
模型
架构llama
·
参数量7.24B
·
量化Q3_K_M
3.5GB
参数
{ "num_ctx": 131072 }
18B
说明
Yarn Mistral 是基于 Mistral 的模型,将其上下文大小扩展到 128k 上下文。 它由 Nous Research 开发,通过实施 YaRN 方法来进一步训练模型,以支持更大的上下文窗口。
CLI
64k 上下文大小
ollama run yarn-mistral
128k 上下文大小
ollama run yarn-mistral:7b-128k
API
例子
curl -X POST http://localhost:11434/api/generate -d '{
"model": "yarn-mistral:7b-128k",
"prompt":"Here is a story about llamas eating grass"
}'