RefuelLLM-2-small,又称 Llama-3-Refueled
8B
107 拉取次数 3个月前更新
3个月前更新
3个月前
6218cd11a005 · 8.5GB
模型
架构llama
·
参数8.03B
·
量化Q8_0
8.5GB
模板
{{ if .System }}<|start_header_id|>system<|end_header_id|> {{ .System }}<|eot_id|>{{ end }}{{ if .Prompt }}<|start_header_id|>user<|end_header_id|> {{ .Prompt }}<|eot_id|>{{ end }}<|start_header_id|>assistant<|end_header_id|> {{ .Response }}<|eot_id|>
254B
参数
{"stop":["<|start_header_id|>","<|end_header_id|>","<|eot_id|>","<|reserved_special_token"]}
128B
README
模型详细信息
RefuelLLM-2-small,又称Llama-3-Refueled,是一个在包含2750多个数据集的语料库上进行指令微调的Llama3-8B基础模型。它涵盖了分类、阅读理解、结构化属性抽取和实体解决等多种任务。我们很高兴将模型开源,供社区进一步开发。
- 关于 RefuelLLM-2系列模型 的更多详情
- 您也可以在我们的 LLM沙箱 上尝试这些模型
模型开发者 - Refuel AI
输入 - 仅文本。
输出 - 仅文本。
架构 - Llama-3-Refueled是基于使用优化变换器结构的自回归语言模型Llama-3-8B-instruct构建的。
发布日期 - 2024年5月8日。
许可 - CC BY-NC 4.0
使用说明
此存储库包含与HuggingFace兼容的Llama-3-Refueled权重。以下是Transformers的用法示例:
>>> import torch
>>> from transformers import AutoModelForCausalLM, AutoTokenizer
>>> model_id = "refuelai/Llama-3-Refueled"
>>> tokenizer = AutoTokenizer.from_pretrained(model_id)
>>> model = AutoModelForCausalLM.from_pretrained(model_id, torch_dtype=torch.float16, device_map="auto")
>>> messages = [{"role": "user", "content": "Is this comment toxic or non-toxic: RefuelLLM is the new way to label text data!"}]
>>> inputs = tokenizer.apply_chat_template(messages, return_tensors="pt", add_generation_prompt=True).to("cuda")
>>> outputs = model.generate(inputs, max_new_tokens=20)
>>> print(tokenizer.decode(outputs[0]))
训练数据
该模型在覆盖超过40亿标记的2750多个NLP任务上进行训练。我们的训练集合主要包括以下内容:
1. 人工标注的数据集,如Flan、Task Source和Aya集合
2. 合成数据集,如OpenOrca、OpenHermes和WizardLM
3. 由Refuel AI开发或授权的专有数据集
基准测试
在本节中,我们报告了Refuel模型在我们的标记任务基准测试上的结果。有关方法的详细信息,请参阅此处。
提供者 | 模型 | LLM输出质量(按任务类型分类) | |||||
---|---|---|---|---|---|---|---|
总体 | 分类 | 阅读理解 | 结构抽取 | 实体匹配 | |||
加油 | RefuelLLM-2 | 83.82% | 84.94% | 76.03% | 88.16% | 92.00% | |
OpenAI | GPT-4-Turbo | 80.88% | 81.77% | 72.08% | 84.79% | 97.20% | |
加油 | RefuelLLM-2-small(Llama-3-Refueled) | 79.67% | 81.72% | 70.04% | 84.28% | 92.00% | |
Anthropic | Claude-3-Opus | 79.19% | 82.49% | 67.30% | 88.25% | 94.96% | |
Meta | Llama3-70B-Instruct | 78.20% | 79.38% | 66.03% | 85.96% | 94.13% | |
Gemini-1.5-Pro | 74.59% | 73.52% | 60.67% | 84.27% | 98.48% | ||
Mistral | Mixtral-8x7B-Instruct | 62.87% | 79.11% | 45.56% | 47.08% | 86.52% | |
Anthropic | Claude-3-Sonnet | 70.99% | 79.91% | 45.44% | 78.10% | 96.34% | |
Anthropic | Claude-3-Haiku | 69.23% | 77.27% | 50.19% | 84.97% | 54.08% | |
OpenAI | GPT-3.5-Turbo | 68.13% | 74.39% | 53.21% | 69.40% | 80.41% | |
Meta | Llama3-8B-Instruct | 62.30% | 68.52% | 49.16% | 65.09% | 63.61% |
局限性
Llama-3-Refueled 没有任何内容审核机制。我们期待与社区合作
寻找方法,使模型更严格地遵守限制,以便在需要审核输出的环境中部署。