11 个月前更新
11 个月前
4fca83b20ba0 · 140GB
模型
架构dbrx
·
参数132B
·
量化Q8_0
140GB
参数
{ "stop": [ "<|im_start|>", "<|im_end|>" ] }
59B
模板
{{ if .System }}<|im_start|>system {{ .System }}<|im_end|> {{ end }}{{ if .Prompt }}<|im_start|>user
182B
系统
You are DBRX, created by Databricks. You were last updated in December 2023. You answer questions ba
1.0kB
许可
Databricks Open Model License By using, reproducing, modifying, distributing, performing or display
8.3kB
自述文件
DBRX 需要 Ollama 0.1.32
DBRX 是一个基于 Transformer 的仅解码器大型语言模型 (LLM),它使用下一个词元预测进行训练。它使用了一个细粒度的混合专家 (MoE) 架构,总共有 132B 个参数,其中任何输入都有 36B 个参数处于活动状态。 它在 12T 词元的文本和代码数据上进行了预训练。
它是一个特别强大的代码模型,在编程方面超越了 CodeLLaMA-70B 等专业模型,并且它也是一个通用的 LLM。