基于Llama2的出色的代码生成模型。

13b

39.7K 16 个月前

Readme

CodeUp由DeepSE发布。它基于Meta的Llama 2,并经过微调以实现更好的代码生成。这使其能够在多种语言中编写更好的代码。

CodeUp入门

以下示例中使用的模型是CodeUp模型,具有13b参数,它是一个代码生成模型。

API

  1. 启动Ollama服务器 (运行 ollama serve)
  2. 运行模型
curl -X POST http://localhost:11434/api/generate -d '{
  "model": "codeup",
  "prompt":"Write a C++ code to find the longest common substring in two strings."
 }'

CLI

  1. 安装Ollama
  2. 打开终端并运行 ollama run codeup

注意: 如果尚未下载该模型,则ollama run命令会执行ollama pull。 要下载模型而不运行它,请使用ollama pull codeup

内存需求

  • 13b 模型通常需要至少 16GB 的 RAM

如果在使用更高的量化级别时遇到问题,请尝试使用 q4 模型或关闭任何其他占用大量内存的程序。

模型变体

默认情况下,Ollama 使用 4 位量化。要尝试其他量化级别,请尝试其他标签。 q 之后的数字表示用于量化的位数(即 q4 表示 4 位量化)。 数字越大,模型越准确,但运行速度越慢,需要的内存也越多。

别名
latest, 13b, 13b-llama2, 13b-llama2-chat, 13b-llama2-chat-q4_0

模型来源

Ollama上的CodeUp来源

13b 参数来源: DeepSE

参考

CodeUp的GitHub仓库