工具 8B

7 绑定 更新于2周前

2周前

9d3885b4f4a2 · 16GB

模型
llama
·
8.03B
·
F16
参数
{"stop":["<|start_header_id|>","<|end_header_id|>","<|eot_id|>"]}
模板
{{ if .Messages }} {{- if or .System .Tools }}<|start_header_id|>system<|end_header_id|> {{- if .System }} {{ .System }} {{- end }} {{- if .Tools }} 你是一个具有工具调用能力的帮助助手。当你收到工具调用响应时,请使用输出格式化回答原始问题。 {{- end }}<|eot_id|> {{- end }} {{- range $i, $_ := .Messages }} {{- $last := eq (len (slice $.Messages $i)) 1 }} {{- if eq .Role "user" }}<|start_header_id|>user<|end_header_id|> {{- if and $.Tools $last }} Given the following functions, please respond with a JSON for a function call with its proper arguments that best answers the given prompt. Respond in the format {"name": function name, "parameters": dictionary of argument name and its value}. Do not use variables. {{ $.Tools }} {{- end }} {{ .Content }}<|eot_id|>{{ if $last }}<|start_header_id|>assistant<|end_header_id|> {{ end }} {{- else if eq .Role "assistant" }}<|start_header_id|>assistant<|end_header_id|> {{- if .ToolCalls }} {{- range .ToolCalls }}{"name": "{{ .Function.Name }}", "parameters": {{ .Function.Arguments }}}{{ end }} {{- else }} {{ .Content }}{{ if not $last }}<|eot_id|>{{ end }} {{- end }} {{- else if eq .Role "tool" }}<|start_header_id|>ipython<|end_header_id|> {{ .Content }}<|eot_id|>{{ if $last }}<|start_header_id|>assistant<|end_header_id|> {{ end }} {{- end }} {{- end }} {{- else }} {{- if .System }}<|start_header_id|>system<|end_header_id|> {{ .System }}<|eot_id|>{{ end }}{{ if .Prompt }}<|start_header_id|>user<|end_header_id|> {{ .Prompt }}<|eot_id|>{{ end }}<|start_header_id|>assistant<|end_header_id|> {{ end }}{{ .Response }}{{ if .Response }}<|eot_id|>{{ end }}

说明

Arcee Spark

Llama-Spark 是 Arcee.ai 开发的一个强大的对话型人工智能模型。它建立在 Llama-3.1-8B 的基础上,并与我们的 Tome 数据集结合了 Llama-3.1-8B-Instruct 的力量,从而产生了一个令人瞩目的对话者,其8B参数量的性能远超同类。

模型描述

Llama-Spark是我们对持续交付6-9B参数范围内最佳性能对话AI的承诺。随着新的基础模型变得可用,我们将不断更新和改进Spark,以维持其领先地位。

此模型是我们最初Arcee-Spark的后继产品,融入了我们持续研究和开发中的进步和经验教训。

预期用途

Llama-Spark旨在用于对话AI应用,如聊天机器人、虚拟助手和对话系统。它在进行自然和富有信息的对话方面表现出色。

训练信息

Llama-Spark基于Llama-3.1-8B基模型构建,使用Tome数据集进行微调,并与Llama-3.1-8B-Instruct合并。

评估结果

请注意,这些分数始终高于OpenLLM排行榜,应与此相对性能提升进行比较,而不是与排行榜相比较。


Arcee Spark

致谢

我们对我们项目计算赞助商PrimeIntellect表示最深切的感激。

https://hugging-face.cn/arcee-ai/Llama-Spark