vicuna:7b

455.9K 2 年前

基于 Llama 和 Llama 2 的通用聊天模型,上下文大小为 2K 到 16K。

7b 13b 33b
ollama run vicuna:7b

详情

2 年前

370739dc897b · 3.8GB ·

llama
·
6.74B
·
Q4_0
{ "stop": [ "USER:", "ASSISTANT:" ] }
一个好奇的用户和一个人工智能助手之间的对话。助手提供有帮助的、
{{ .System }} USER: {{ .Prompt }} ASSISTANT

自述文件

Vicuna 是一个聊天助手模型。它包含 3 种不同大小的变体。v1.3 通过微调 Llama 进行训练,上下文大小为 2048 个 token。v1.5 通过微调 Llama 2 进行训练,上下文大小为 2048 个 token。v1.5-16k 通过微调 Llama 2 进行训练,上下文大小为 16k 个 token。所有三个变体均使用从 ShareGPT 收集的对话进行训练。

示例提示

What is the meaning of life? Explain it in 5 paragraphs.

参考文献

HuggingFace