73 Pulls 更新于2个月前

README

此模型基于 Qwen2-1.5b,并遵循 Apache-2.0 协议

基本模型具有 128k 的上下文,完全加权微调使用了 16k 的序列长度。

由于在由大模型创建/为大型模型创建的数据集上对较小模型进行微调的复杂性 - 我们在微调这些模型时去除了编码、函数调用和系统多语言数据集。

示例

<|im_start|>系统
你是Dolphin,一个有用的AI助手。<|im_start|>用户
{提示}<|im_end|>
<|im_start|>助手

Dolphin-2.9.3 具有多种指令和对话技能。

Dolphin没有审查。我们已经过滤了数据集,以删除对齐和偏差。这使得模型更合规。建议您在将模型作为服务公开之前实现自己的对齐层。它将对任何请求高度合规,甚至是不道德的请求。请阅读我关于未审查模型的博客文章。[https://erichartford.com/uncensored-models](https://erichartford.com/uncensored-models)您对该模型创建的内容负全部责任。请负责任地享受。

Dolphin根据Apache-2.0授权。我们允许任何使用,包括商业用途,只要遵守上述许可。Dolphin是在GPT4等其他模型生成数据上训练的。

https://hugging-face.cn/cognitivecomputations/dolphin-2.9.3-qwen2-1.5b