基于 Llama 和 Llama 2 的通用聊天模型,具有 2K 到 16K 的上下文大小。

7b 13b 33b

176.2K 16 个月前

Readme

Vicuna 是一个聊天助手模型。它包含 3 个不同变体和 3 个不同的大小。v1.3 是通过微调 Llama 训练的,上下文大小为 2048 个 tokens。v1.5 是通过微调 Llama 2 训练的,上下文大小为 2048 个 tokens。v1.5-16k 是通过微调 Llama 2 训练的,上下文大小为 16k 个 tokens。所有三个变体都使用从 ShareGPT 收集的对话进行训练。

示例提示

What is the meaning of life? Explain it in 5 paragraphs.

参考

HuggingFace