工具 7B

31 Pulls 更新于3周前

说明文档

Dolphin 2.9.3 Mistral 7b v0.3 32k 🐬

由 Eric Hartford 和 Cognitive Computations 精选和训练

Discord
Discord: https://discord.gg/h3K4XGj2RH

感谢赞助 Dolphin 2.9.3 的赞助商
- Crusoe Cloud - 提供了优质的 8xH100 节点
- OnDemand - 提供了推理赞助

本模型基于 mistralai/Mistral-7B-v0.3,遵守 Apache 2.0 许可协议。

基本模型具有 32k 上下文,我们的微调使用了 8192 序列长度。

Dolphin 2.9.3 使用 ChatML 提示模板格式。

示例

<|im_start|>system
You are Dolphin, a helpful AI assistant.<|im_end|>
<|im_start|>user
{prompt}<|im_end|>
<|im_start|>assistant

Dolphin-2.9.3 具有多种指令遵循、对话和编码技能。它还具备初始的代理能力,并支持函数调用。

Dolphin 没有禁止内容。我们过滤了数据集以消除一致性和偏见。这使得模型更加合规。在将模型作为服务公开之前,建议您实现自己的对齐层。它将对任何请求都高度合规,甚至包括不道德的请求。请阅读我的关于未审查模型的博客文章。 https://erichartford.com/uncensored-models 您对使用本模型创建的任何内容负有责任。请负责任地享受。

Dolphin 根据 Apache 2.0 许可协议授权。我们允许任何用途,包括商业用途。Dolphin 在 GPT4 等其他模型生成数据的基础上进行了训练。

评估

image/png

https://hugging-face.cn/cognitivecomputations/dolphin-2.9.3-mistral-7B-32k

训练

Built with Axolotl

查看 axolotl 配置

axolotl 版本: 0.4.0
”`yaml
base_model: mistralai/Mistral-7B-v0.3
model_type: AutoModelForCausalLM
tokenizer_type: AutoTokenizer

load_in_8bit: false

load_in_4bit: true

strict: false

datasets
- path: /workspace/datasets/dolphin-2.9.3/dolphin201-sharegpt2.jsonl
type: sharegpt
conversation: chatml
- path: /workspace/datasets/dolphin-2.9.3/SystemChat_filtered_sharegpt.jsonl
type: sharegpt
conversation: chatml
- path: /workspace/datasets/dolphin-2.9.3/SystemChat_multilingual_sharegpt.jsonl
type: sharegpt
conversation: chatml
- path: /workspace/datasets/dolphin-2.9.3/dolphin-coder-translate-sharegpt2.jsonl
type: sharegpt
conversation: chatml
- path: /workspace/datasets/dolphin-2.9.3/dolphin-coder-codegen-sharegpt2.jsonl
type: sharegpt
conversation: chatml
- 路径:/workspace/datasets/dolphin-2.9.3/m-a-p_Code-Feedback-sharegpt-unfiltered.jsonl
type: sharegpt
conversation: chatml
- 路径:/workspace/datasets/dolphin-2.9.3/m-a-p_CodeFeedback-Filtered-Instruction-sharegpt-unfiltered.jsonl
type: sharegpt
conversation: chatml
- 路径:/workspace/datasets/dolphin-2.9.3/not_samantha_norefusals.jsonl
type: sharegpt
conversation: chatml
- 路径:/workspace/datasets/dolphin-2.9.3/Orca-Math-resort-unfiltered.jsonl
type: sharegpt
conversation: chatml
- 路径:/workspace/datasets/dolphin-2.9.3/agent_instruct_react_unfiltered.jsonl
type: sharegpt
conversation: chatml
- 路径:/workspace/datasets/dolphin-2.9.3/toolbench_instruct_j1s1_3k_unfiltered.jsonl
type: sharegpt
conversation: chatml
- 路径:/workspace/datasets/dolphin-2.9.3/toolbench_negative_unfiltered.jsonl
type: sharegpt
conversation: chatml
- 路径:/workspace/datasets/dolphin-2.9.3/toolbench_react_10p_unfiltered.jsonl
type: sharegpt
conversation: chatml
- 路径:/workspace/datasets/dolphin-2.9.3/toolbench_tflan_cot_30p_unfiltered.jsonl
type: sharegpt
conversation: chatml
- 路径:/workspace/datasets/dolphin-2.9.3/openhermes200k_unfiltered.jsonl
type: sharegpt
conversation: chatml

chat_template: chatml

适配器:qlora

lora_r: 128

lora_alpha: 16

lora_modules_to_save: [embed_tokens, lm_head]

lora_dropout: 0.05

lora_target_linear: true

数据集准备路径:/workspace/axolotl/dolph-2.9.3-prepared
验证集大小:0.01
输出目录:/workspace/axolotl/dolphin-2.9.3-mistral-7B

序列长度:8192
样本打包:true
填充到序列长度:true

wandb_project: dolphin-2.9.3-Mistral-7B
wandb_watch
wandb_run_id
wandb_log_model

梯度累积步骤:16
微观批大小:1
epoch数量:3
优化器:adamw_8bit
学习率调度器:cosine
学习率:5e-6
在输入上训练:false
按长度分组:false
bf16:auto
fp16
tf32

梯度 checkpointing:true
梯度 checkpointing_kwargs
use_reentrant:false
早期停止耐心度:early_stopping_patience
从中断处恢复:resume_from_checkpoint
日志步骤:1
xformers_attention
flash_attention:true

预加热步骤:100

每个epoch评估次数:4

评估表大小:eval_table_size
每个epoch保存次数:1
保存总限制:2
保存步骤:save_steps
调试:debug
deepspeed:/workspace/axolotl/deepspeed_configs/zero3_bf16.json
权重衰减:0.1
fsdp
fsdp_config
特殊令牌
eos_token: “<|im_end|>”
tokens
- “<|im_start|>”