最新版本
20GB
基于泄露的Mistral Medium 70B。此模型是2位imatrix量化,在https://hugging-face.cn/KnutJaegersberg/awesome-2bit-gguf 由Knut Jägersberg @JagersbergKnut在X上的许可下运行良好。
70B
113 pulls 更新5个月前
更新6个月前
6个月前
87b0e0f066f4 · 20GB
模型
架构llama
·
参数69.0B
·
量化IQ2_XS
20GB
模板
[INST] {{ .System }} {{ .Prompt }} [/INST]
47B
参数
{"stop":["[INST]","\"[/INST]\""]}
34B