基于 Llama 和 Llama 2 的通用聊天模型,具有 2K 到 16K 的上下文大小。
7b(70亿参数) 13b(130亿参数) 33b(330亿参数)
176.2K 下载量 更新于 16 个月前
自述文件
Vicuna 是一个聊天助手模型。它包括 3 种不同大小的变体。v1.3 通过微调 Llama 进行训练,上下文大小为 2048 个 token。v1.5 通过微调 Llama 2 进行训练,上下文大小为 2048 个 token。v1.5-16k 通过微调 Llama 2 进行训练,上下文大小为 16k 个 token。所有三个变体都使用从 ShareGPT 收集的对话进行训练。
示例提示词
What is the meaning of life? Explain it in 5 paragraphs.