RefuelLLM-2-small,又称Llama-3-Refueled
8B
107次拉取 更新于3个月前
更新于3个月前
3个月前
6eaae3b07b17 · 4.9GB
说明文件
模型详细信息
RefuelLLM-2-small,又称Llama-3-Refueled,是一个基于Llama-3-8B基础模型并针对超过2750个数据集的语料库进行指令调优的模型,涵盖了分类、阅读理解、结构化属性提取和实体解析等任务。我们很高兴开源这个模型,让社区可以在其基础上进行构建。
- 有关RefuelLLM-2模型系列的更多细节
- 您也可以在我们的LLM沙箱中试用这些模型
模型开发者 - Refuel AI
输入 - 仅文本。
输出 - 仅文本。
架构 - Llama-3-Refueled建立在Llama-3-8B-instruct之上,它是一个自回归语言模型,使用了优化的变换器架构。
发布日期 - 2024年5月8日。
许可协议 - CC BY-NC 4.0
使用方法
此存储库包含与HuggingFace兼容的Llama-3-Refueled权重。以下是如何使用Transformers的示例片段:
>>> import torch
>>> from transformers import AutoModelForCausalLM, AutoTokenizer
>>> model_id = "refuelai/Llama-3-Refueled"
>>> tokenizer = AutoTokenizer.from_pretrained(model_id)
>>> model = AutoModelForCausalLM.from_pretrained(model_id, torch_dtype=torch.float16, device_map="auto")
>>> messages = [{"role": "user", "content": "Is this comment toxic or non-toxic: RefuelLLM is the new way to label text data!"}]
>>> inputs = tokenizer.apply_chat_template(messages, return_tensors="pt", add_generation_prompt=True).to("cuda")
>>> outputs = model.generate(inputs, max_new_tokens=20)
>>> print(tokenizer.decode(outputs[0]))
训练数据
该模型是在超过40亿个标记上训练的,跨越了2750多个NLP任务。我们的训练集合主要包含以下内容:
1. 人标注的数据集,如Flan、Task Source和Aya收藏
2. 人工合成的数据集,如OpenOrca、OpenHermes和WizardLM
3. Refuel AI开发或授权的私有数据集
基准测试
在本节中,我们报告了Refuel模型在我们的标注任务基准测试上的结果。有关方法的详细信息,请参阅此处。
提供者 | 模型 | LLM输出质量(按任务类型) | |||||
---|---|---|---|---|---|---|---|
总体 | 分类 | 阅读理解 | 结构提取 | 实体匹配 | |||
Refuel | RefuelLLM-2 | 83.82% | 84.94% | 76.03% | 88.16% | 92.00% | |
OpenAI | GPT-4-Turbo | 80.88% | 81.77% | 72.08% | 84.79% | 97.20% | |
Refuel | RefuelLLM-2-small(Llama-3-Refueled) | 79.67% | 81.72% | 70.04% | 84.28% | 92.00% | |
Anthropic | Claude-3-Opus | 79.19% | 82.49% | 67.30% | 88.25% | 94.96% | |
Meta | Llama3-70B-Instruct | 78.20% | 79.38% | 66.03% | 85.96% | 94.13% | |
Gemini-1.5-Pro | 74.59% | 73.52% | 60.67% | 84.27% | 98.48% | ||
Mistral | Mixtral-8x7B-Instruct | 62.87% | 79.11% | 45.56% | 47.08% | 86.52% | |
Anthropic | Claude-3-Sonnet | 70.99% | 79.91% | 45.44% | 78.10% | 96.34% | |
Anthropic | Claude-3-Haiku | 69.23% | 77.27% | 50.19% | 84.97% | 54.08% | |
OpenAI | ChatGLM-3.5-Turbo | 68.13% | 74.39% | 53.21% | 69.40% | 80.41% | |
Meta | Llama3-8B-Instruct | 62.30% | 68.52% | 49.16% | 65.09% | 63.61% |
限制
Llama-3-Refueled 没有任何内容审核机制。我们期待与社区合作
,探讨如何使模型更精细地遵守束缚,以便在需要经过审核的输出环境中部署。