31 拉取 3周前更新
Readme
Dolphin 2.9.3 Mistral 7b v0.3 32k 🐬
由Eric Hartford和Cognitive Computations精心培养和训练
Discord: https://discord.gg/h3K4XGj2RH

感谢Dolphin 2.9.3的赞助商
- Crusoe Cloud - 提供了优秀的按需8xH100节点
- OnDemand - 提供了推理赞助
本模型基于mistralai/Mistral-7B-v0.3,并受Apache 2.0许可的约束。
基本模型有32k上下文,我们的微调是在8192序列长度下进行的。
Dolphin 2.9.3使用ChatML提示模板格式。
示例
<|im_start|>system
You are Dolphin, a helpful AI assistant.<|im_end|>
<|im_start|>user
{prompt}<|im_end|>
<|im_start|>assistant
Dolphin-2.9.3具有多种指令遵循、对话和编码技能。它还具有初始的代理能力并支持函数调用。
Dolphin未审查。我们已过滤数据集以删除对齐和偏差。这使模型更合规。请在将模型作为服务公开之前实施自己的对齐层。它将高度遵守任何请求,即使是不道德的请求。请阅读我的关于未审查模型的博客文章。[链接](https://erichartford.com/uncensored-models) 你对本模型创建的任何内容负责。请负责任地享受。
Dolphin根据Apache 2.0许可证授权。我们允许任何使用,包括商业使用。Dolphin在GPT4等模型生成的数据上进行了训练。
评估

https://hugging-face.cn/cognitivecomputations/dolphin-2.9.3-mistral-7B-32k
训练
参见axolotl配置
axolotl版本:0.4.0
”`yaml
base_model: mistralai/Mistral-7B-v0.3
model_type: AutoModelForCausalLM
tokenizer_type: AutoTokenizer
load_in_8bit: false
load_in_4bit: true
strict: false
datasets
- path: /workspace/datasets/dolphin-2.9.3/dolphin201-sharegpt2.jsonl
type: sharegpt
conversation: chatml
- path: /workspace/datasets/dolphin-2.9.3/SystemChat_filtered_sharegpt.jsonl
type: sharegpt
conversation: chatml
- path: /workspace/datasets/dolphin-2.9.3/SystemChat_multilingual_sharegpt.jsonl
type: sharegpt
conversation: chatml
- path: /workspace/datasets/dolphin-2.9.3/dolphin-coder-translate-sharegpt2.jsonl
type: sharegpt
conversation: chatml
- path: /workspace/datasets/dolphin-2.9.3/dolphin-coder-codegen-sharegpt2.jsonl
type: sharegpt
conversation: chatml
路径:/workspace/datasets/dolphin-2.9.3/m-a-p_Code-Feedback-sharegpt-unfiltered.jsonl
type: sharegpt
conversation: chatml
路径:/workspace/datasets/dolphin-2.9.3/m-a-p_CodeFeedback-Filtered-Instruction-sharegpt-unfiltered.jsonl
type: sharegpt
conversation: chatml
路径:/workspace/datasets/dolphin-2.9.3/not_samantha_norefusals.jsonl
type: sharegpt
conversation: chatml
路径:/workspace/datasets/dolphin-2.9.3/Orca-Math-resort-unfiltered.jsonl
type: sharegpt
conversation: chatml
路径:/workspace/datasets/dolphin-2.9.3/agent_instruct_react_unfiltered.jsonl
type: sharegpt
conversation: chatml
路径:/workspace/datasets/dolphin-2.9.3/toolbench_instruct_j1s1_3k_unfiltered.jsonl
type: sharegpt
conversation: chatml
路径:/workspace/datasets/dolphin-2.9.3/toolbench_negative_unfiltered.jsonl
type: sharegpt
conversation: chatml
路径:/workspace/datasets/dolphin-2.9.3/toolbench_react_10p_unfiltered.jsonl
type: sharegpt
conversation: chatml
路径:/workspace/datasets/dolphin-2.9.3/toolbench_tflan_cot_30p_unfiltered.jsonl
type: sharegpt
conversation: chatml
路径:/workspace/datasets/dolphin-2.9.3/openhermes200k_unfiltered.jsonl
type: sharegpt
conversation: chatml
聊天模板:chatml
适配器:qlora
lora_r:128
lora_alpha:16
lora_modules_to_save:[embed_tokens, lm_head]
lora_dropout:0.05
lora_target_linear:true
数据集准备路径:/workspace/axolotl/dolph-2.9.3-prepared
验证集大小:0.01
输出目录:/workspace/axolotl/dolphin-2.9.3-mistral-7B
序列长度:8192
样本打包:true
填充到序列长度:true
wandb项目:dolphin-2.9.3-Mistral-7B
wandb观察
wandb运行ID
wandb记录模型
梯度累积步骤:16
微批次大小:1
训练轮数:3
优化器:adamw_8bit
学习率计划器:cosine
学习率:5e-6
在输入上训练:false
按长度分组:false
bf16:auto
fp16
tf32
梯度检查:true
梯度检查关键字参数
使用重入:false
早停耐心值
从检查点恢复
记录步骤:1
xformers注意力
flash注意力:true
预热步骤:100
每轮评估次数:4
评估表大小
每轮保存次数:1
保存总限制:2
保存步骤
调试
deepspeed:/workspace/axolotl/deepspeed_configs/zero3_bf16.json
权重衰减:0.1
fsdp
fsdp配置
特殊令牌
eos令牌:“<|im_end|>”
令牌
- “<|im_start|>”