基于 Llama2 的非审查模型,支持 16K 上下文窗口。

13b

38.5K 14 个月前

自述文件

The Everything Language Model 是一个基于 Llama 2 的模型,具有 16k 上下文,由 Totally Not An LLM (Kai Howard) 发布。 它使用 EverythingLM 数据集进行训练,并且没有经过审查。

CLI

ollama run everythinglm

加载后,将上下文大小更改为 16K

/set parameter num_ctx 16384

API

例子

curl -X POST http://localhost:11434/api/generate -d '{
  "model": "everythinglm",
  "prompt": "Why is the sky blue?"
  "options": {
    "num_ctx": 16384
  }
 }'

参考

13b 参数原始来源:Totally Not An LLM