工具 7B

31 拉取 3周前更新

Readme

Dolphin 2.9.3 Mistral 7b v0.3 32k 🐬

由Eric Hartford和Cognitive Computations精心培养和训练

Discord
Discord: https://discord.gg/h3K4XGj2RH

感谢Dolphin 2.9.3的赞助商
- Crusoe Cloud - 提供了优秀的按需8xH100节点
- OnDemand - 提供了推理赞助

本模型基于mistralai/Mistral-7B-v0.3,并受Apache 2.0许可的约束。

基本模型有32k上下文,我们的微调是在8192序列长度下进行的。

Dolphin 2.9.3使用ChatML提示模板格式。

示例

<|im_start|>system
You are Dolphin, a helpful AI assistant.<|im_end|>
<|im_start|>user
{prompt}<|im_end|>
<|im_start|>assistant

Dolphin-2.9.3具有多种指令遵循、对话和编码技能。它还具有初始的代理能力并支持函数调用。

Dolphin未审查。我们已过滤数据集以删除对齐和偏差。这使模型更合规。请在将模型作为服务公开之前实施自己的对齐层。它将高度遵守任何请求,即使是不道德的请求。请阅读我的关于未审查模型的博客文章。[链接](https://erichartford.com/uncensored-models) 你对本模型创建的任何内容负责。请负责任地享受。

Dolphin根据Apache 2.0许可证授权。我们允许任何使用,包括商业使用。Dolphin在GPT4等模型生成的数据上进行了训练。

评估

image/png

https://hugging-face.cn/cognitivecomputations/dolphin-2.9.3-mistral-7B-32k

训练

Built with Axolotl

参见axolotl配置

axolotl版本:0.4.0
”`yaml
base_model: mistralai/Mistral-7B-v0.3
model_type: AutoModelForCausalLM
tokenizer_type: AutoTokenizer

load_in_8bit: false

load_in_4bit: true

strict: false

datasets
- path: /workspace/datasets/dolphin-2.9.3/dolphin201-sharegpt2.jsonl
type: sharegpt
conversation: chatml
- path: /workspace/datasets/dolphin-2.9.3/SystemChat_filtered_sharegpt.jsonl
type: sharegpt
conversation: chatml
- path: /workspace/datasets/dolphin-2.9.3/SystemChat_multilingual_sharegpt.jsonl
type: sharegpt
conversation: chatml
- path: /workspace/datasets/dolphin-2.9.3/dolphin-coder-translate-sharegpt2.jsonl
type: sharegpt
conversation: chatml
- path: /workspace/datasets/dolphin-2.9.3/dolphin-coder-codegen-sharegpt2.jsonl
type: sharegpt
conversation: chatml
路径:/workspace/datasets/dolphin-2.9.3/m-a-p_Code-Feedback-sharegpt-unfiltered.jsonl
type: sharegpt
conversation: chatml
路径:/workspace/datasets/dolphin-2.9.3/m-a-p_CodeFeedback-Filtered-Instruction-sharegpt-unfiltered.jsonl
type: sharegpt
conversation: chatml
路径:/workspace/datasets/dolphin-2.9.3/not_samantha_norefusals.jsonl
type: sharegpt
conversation: chatml
路径:/workspace/datasets/dolphin-2.9.3/Orca-Math-resort-unfiltered.jsonl
type: sharegpt
conversation: chatml
路径:/workspace/datasets/dolphin-2.9.3/agent_instruct_react_unfiltered.jsonl
type: sharegpt
conversation: chatml
路径:/workspace/datasets/dolphin-2.9.3/toolbench_instruct_j1s1_3k_unfiltered.jsonl
type: sharegpt
conversation: chatml
路径:/workspace/datasets/dolphin-2.9.3/toolbench_negative_unfiltered.jsonl
type: sharegpt
conversation: chatml
路径:/workspace/datasets/dolphin-2.9.3/toolbench_react_10p_unfiltered.jsonl
type: sharegpt
conversation: chatml
路径:/workspace/datasets/dolphin-2.9.3/toolbench_tflan_cot_30p_unfiltered.jsonl
type: sharegpt
conversation: chatml
路径:/workspace/datasets/dolphin-2.9.3/openhermes200k_unfiltered.jsonl
type: sharegpt
conversation: chatml

聊天模板:chatml

适配器:qlora

lora_r:128

lora_alpha:16

lora_modules_to_save:[embed_tokens, lm_head]

lora_dropout:0.05

lora_target_linear:true

数据集准备路径:/workspace/axolotl/dolph-2.9.3-prepared
验证集大小:0.01
输出目录:/workspace/axolotl/dolphin-2.9.3-mistral-7B

序列长度:8192
样本打包:true
填充到序列长度:true

wandb项目:dolphin-2.9.3-Mistral-7B
wandb观察
wandb运行ID
wandb记录模型

梯度累积步骤:16
微批次大小:1
训练轮数:3
优化器:adamw_8bit
学习率计划器:cosine
学习率:5e-6
在输入上训练:false
按长度分组:false
bf16:auto
fp16
tf32

梯度检查:true
梯度检查关键字参数
使用重入:false
早停耐心值
从检查点恢复
记录步骤:1
xformers注意力
flash注意力:true

预热步骤:100

每轮评估次数:4

评估表大小
每轮保存次数:1
保存总限制:2
保存步骤
调试
deepspeed:/workspace/axolotl/deepspeed_configs/zero3_bf16.json
权重衰减:0.1
fsdp
fsdp配置
特殊令牌
eos令牌:“<|im_end|>”
令牌
- “<|im_start|>”