DBRX是由Databricks创建的开源通用LLM。

132b

18.4K 11个月前

说明

DBRX 需要 Ollama 0.1.32

DBRX 是一个基于 Transformer 的解码器大型语言模型 (LLM),它使用下一个 token 预测进行训练。它使用了一个细粒度的混合专家 (MoE) 架构,总共有 132B 个参数,其中任何输入上有 36B 个参数处于活动状态。 它在 12T 个文本和代码数据的 token 上进行了预训练。

它是一个特别强大的代码模型,在编程方面超越了像 CodeLLaMA-70B 这样的专门模型,并且它也是一个通用的 LLM。

参考

博客文章

HuggingFace