更新于 16 个月前
16 个月前
256b13d53838 · 73GB
模型
架构llama
·
参数量69B
·
量化Q8_0
73GB
参数
{ "num_gqa": 8, "stop": [ "### HUMAN:", "### RESPONSE:" ] }
51B
模板
{{ .System }} ### HUMAN: {{ .Prompt }} ### RESPONSE:
55B
许可
# Llama 2 可接受使用政策 Meta 致力于推广其工具的安全和公平使用 f
4.8kB
许可
LLAMA 2 社区许可协议 Llama 2 版本发布日期:2023 年 7 月 18 日 “协议”指
7.0kB
自述文件
Llama 2 Uncensored 基于 Meta 的 Llama 2 模型,由 George Sung 和 Jarrad Hope 使用 Eric Hartford 在其博客文章中定义的流程创建。
CLI(命令行界面)
打开终端并运行 ollama run llama2-uncensored
API(应用程序编程接口)
示例
curl -X POST http://localhost:11434/api/generate -d '{
"model": "llama2-uncensored",
"prompt":"Write a recipe for dangerously spicy mayo."
}'
内存需求
- 7b 模型通常至少需要 8GB 的 RAM
- 70b 模型通常至少需要 64GB 的 RAM
参考
https://erichartford.com/uncensored-models
7b 参数的原始来源:George Sung
70b 参数的原始来源:George Sung