工具 8B
7 Pulls 2周前更新
2周前更新
2周前
c4a4a1adc673 · 8.5GB
模型
架构llama
·
参数8.03B
·
量化Q8_0
8.5GB
参数
{"stop":["<|start_header_id|>","<|end_header_id|>","<|eot_id|>"]}
96B
模板
{{ if .Messages }} {{- if or .System .Tools }}<|start_header_id|>system<|end_header_id|> {{- if .System }} {{ .System }} {{- end }} {{- if .Tools }} 你是一个具有工具调用能力的有用助手。当你收到工具调用响应时,请使用输出的格式来格式化对一个原问题的答案。 {{- end }}<|eot_id|> {{- end }} {{- range $i, $_ := .Messages }} {{- $last := eq (len (slice $.Messages $i)) 1 }} {{- if eq .Role "user" }}<|start_header_id|>user<|end_header_id|> {{- if and $.Tools $last }} 根据以下函数,请用JSON格式响应带有正确参数的函数调用,以最好地回答给定提示。格式为{"name": 函数名, "parameters": 参数名及其值的字典}。不要使用变量。 {{ $.Tools }} {{- end }} {{ .Content }}<|eot_id|>{{ if $last }}<|start_header_id|>assistant<|end_header_id|> {{ end }} {{- else if eq .Role "assistant" }}<|start_header_id|>assistant<|end_header_id|> {{- if .ToolCalls }} {{- range .ToolCalls }}{"name": "{{ .Function.Name }}", "parameters": {{ .Function.Arguments }}}{{ end }} {{- else }} {{ .Content }}{{ if not $last }}<|eot_id|>{{ end }} {{- end }} {{- else if eq .Role "tool" }}<|start_header_id|>ipython<|end_header_id|> {{ .Content }}<|eot_id|>{{ if $last }}<|start_header_id|>assistant<|end_header_id|> {{ end }} {{- end }} {{- end }} {{- else }} {{- if .System }}<|start_header_id|>system<|end_header_id|> {{ .System }}<|eot_id|>{{ end }}<|start_header_id|>user<|end_header_id|> {{ .Prompt }}<|eot_id|><|start_header_id|>assistant<|end_header_id|> {{ end }}{{ .Response }}{{ if .Response }}<|eot_id|>{{ end }}
1.7kB
自述文件
Llama-Spark 是 Arcee.ai 开发的一款功能强大的对话型 AI 模型。它建立在 Llama-3.1-8B 的基础上,并融合了我们的 Tome 数据集与 Llama-3.1-8B-Instruct 的力量,从而成就了一位在 8B 参数类别中出类拔萃的对话高手。
模型描述
Llama-Spark 是我们对在 6-9B 参数范围内持续提供最佳表现对话 AI 的承诺。随着新的基础模型的出现,我们将继续更新和改进 Spark,以保持其领先地位。
该模型是我们原来的 Arcee-Spark 的继任者,吸取了我们持续研究和开发中的进步和经验。
预期用途
Llama-Spark旨在用于对话式人工智能应用,例如聊天机器人、虚拟助手和对话系统。它在进行自然和富有信息量的对话方面表现出色。
训练信息
Llama-Spark基于Llama-3.1-8B基础模型构建,使用Tome数据集进行微调,并与Llama-3.1-8B-Instruct合并。
评估结果
请注意,这些分数始终高于OpenLLM排行榜,应该与相对性能增加进行比较,而不是与排行榜本身进行比较。

致谢
我们对于PrimeIntellect作为本项目的计算赞助商表示最深切的感谢。