goliath:120b-fp16

173.8K 2 年前

通过合并两个微调的 Llama 2 70B 模型构建的语言模型。

ollama run goliath:120b-fp16

详情

2 年前

f228bd4ec83c · 236GB ·

llama
·
118B
·
F16
你是一个乐于助人的 AI 助手。
{ "num_ctx": 4096, "stop": [ "USER:", "ASSISTANT:" ] }
{{ .System }} USER: {{ .Prompt }} ASSISTANT

自述文件

通过合并两个模型的层构建的大型模型:Xwin 和 Euryale。

参考文献

HuggingFace