更新于 11 个月前
11 个月前
50f34a8d0894 · 3.5GB
模型
架构llama
·
参数7.24B
·
量化Q3_K_M
3.5GB
参数
{ "stop": [ "<|endoftext|>", "<|end_of_turn|>", "Human:", "Assis
87B
模板
{{ if .System }}GPT4 Correct System: {{ .System }}<|end_of_turn|>{{ end }}{{ if .Prompt }}GPT4 Corre
200B
许可
Apache License Version 2.0, January 2004
11kB
自述文件
Starling-7B 是一个开源(非商业用途)的大型语言模型 (LLM),通过来自 AI 反馈的强化学习进行训练。(RLAIF)
该模型利用了我们新的 GPT-4 标记排名数据集 Nectar,以及我们新的奖励训练和策略调整流程的强大功能。 Starling-7B-alpha 在 MT Bench 中以 GPT-4 作为评判标准获得 8.09 分,其性能优于迄今为止 MT-Bench 上的所有模型,OpenAI 的 GPT-4 和 GPT-4 Turbo 除外。
*基于 MT Bench 评估,使用 GPT-4 评分。 需要进一步的人工评估。
作者:Banghua Zhu、Evan Frick、Tianhao Wu、Hanlin Zhu 和 Jiantao Jiao。
如有疑问,请联系 Banghua Zhu (banghua@berkeley.edu)。