最新版
3.1GB
73 pulls 更新于 2 个月前
更新于 2 个月前
2 个月前
1dcd21d9e99f · 3.1GB
model
archqwen2
·
parameters1.54B
·
quantizationF16
3.1GB
params
{"stop":["<|im_start|>","<|im_end|>"]}
59B
template
{{ if .System }}<|im_start|>system {{ .System }}<|im_end|> {{ end }}{{ if .Prompt }}<|im_start|>user {{ .Prompt }}<|im_end|> {{ end }}<|im_start|>assistant {{ .Response }}<|im_end|>
182B
Readme
此模型基于 Qwen2-1.5b,遵循 Apache-2.0 协议。
基础模型具有 128k 的上下文,完全权重微调使用 16k 的序列长度。
由于在更大的模型创建的数据集上微调较小模型的复杂性,我们在微调这些模型时移除了编码、函数调用和系统聊天多语言数据集。
示例
<|im_start|>system
您是 Dolphin,一位有用的 AI 助手。
<|im_start|>user
{prompt}<|im_end|>
<|im_start|>助手
Dolphin-2.9.3具有各种指令和对话能力。
Dolphin未经过审查。我们已过滤数据集以去除对齐偏差。这使得模型更加合规。建议在将模型作为服务暴露之前实现自己的对齐层。该模型将遵守任何请求,包括不道德的请求。请阅读我关于未审查模型的博客文章。[https://erichartford.com/uncensored-models](https://erichartford.com/uncensored-models) 您对使用此模型创建的任何内容负责。负责任地享受。
Dolphin根据Apache-2.0授权。我们授予在符合该许可证范围内的任何使用权限,包括商业用途。Dolphin在GPT4等模型生成的数据上进行训练。
https://hugging-face.cn/cognitivecomputations/dolphin-2.9.3-qwen2-1.5b