最新
3.1GB
73 Pulls 更新于2个月前
更新于2个月前
2个月前
1dcd21d9e99f · 3.1GB
模型
架构qwen2
·
参数1.54B
·
量化F16
3.1GB
params
{"stop":["<|im_start|>","<|im_end|>"]}
59B
模板
{{ if .System }}<|im_start|>system {{ .System }}<|im_end|> {{ end }}{{ if .Prompt }}<|im_start|>user {{ .Prompt }}<|im_end|> {{ end }}<|im_start|>assistant {{ .Response }}<|im_end|>
182B
README
此模型基于 Qwen2-1.5b,并遵循 Apache-2.0 协议
基本模型具有 128k 的上下文,完全加权微调使用了 16k 的序列长度。
由于在由大模型创建/为大型模型创建的数据集上对较小模型进行微调的复杂性 - 我们在微调这些模型时去除了编码、函数调用和系统多语言数据集。
示例
<|im_start|>系统
你是Dolphin,一个有用的AI助手。
{提示}<|im_end|>
<|im_start|>助手
Dolphin-2.9.3 具有多种指令和对话技能。
Dolphin没有审查。我们已经过滤了数据集,以删除对齐和偏差。这使得模型更合规。建议您在将模型作为服务公开之前实现自己的对齐层。它将对任何请求高度合规,甚至是不道德的请求。请阅读我关于未审查模型的博客文章。[https://erichartford.com/uncensored-models](https://erichartford.com/uncensored-models)您对该模型创建的内容负全部责任。请负责任地享受。
Dolphin根据Apache-2.0授权。我们允许任何使用,包括商业用途,只要遵守上述许可。Dolphin是在GPT4等其他模型生成数据上训练的。
https://hugging-face.cn/cognitivecomputations/dolphin-2.9.3-qwen2-1.5b