
注意: 您需要首先重新构建 ./ollama 二进制文件,有 3 种方法可以做到。
1. 下载二进制文件
访问 发行页面 并下载文件。
🔥 特别地,./ollama-linux-arm64 文件是在基于 Debian 操作系统的操作系统上构建的。它可以在安卓手机上的 Termux 应用中运行。
启动服务器
./ollama-linux-x86_64 serve
运行此模型
ollama run hhao/openbmb-minicpm-llama3-v-2_5
2. 在 Docker 中运行(使用 CPU 或 GPU)
- 🆕 支持 x86_64 和 arm64 架构操作系统。
- 支持 CUDA(NVIDIA)和 ROCm(AMD)。 更多信息 >>
# x86_64 arch
docker pull hihao/ollama-amd64
# arm64 arch
# docker pull hihao/ollama-arm64
docker run -d -v ./models:/root/.ollama -p 11434:11434 --name ollama hihao/ollama-amd64
docker exec -it ollama bash
ollama run hhao/openbmb-minicpm-llama3-v-2_5
3. 重新构建 ./ollama 二进制文件说明
安装要求
- cmake 版本 3.24 或更高
- go 版本 1.22 或更高
- gcc 版本 11.4.0 或更高
设置代码
准备我们 llama.cpp 分支和此 Ollama 分支。
git clone -b minicpm-v2.5 https://github.com/OpenBMB/ollama.git
cd ollama/llm
git clone -b minicpm-v2.5 https://github.com/OpenBMB/llama.cpp.git
cd ../
MacOS 构建
这里提供了一个 MacOS 的例子。查看 开发者指南 以获取更多平台的信息。
brew install go cmake gcc
可选:启用调试和更详细的日志记录
## At build time
export CGO_CFLAGS="-g"
## At runtime
export OLLAMA_DEBUG=1
获取所需库并构建本机 LLM 代码
go generate ./...
构建ollama
go build .
启动服务器
./ollama serve
运行此模型
ollama run hhao/openbmb-minicpm-llama3-v-2_5
Windows构建
注意:ollama的Windows构建仍在开发中。
安装所需工具
- MSVC工具链 - C/C++和cmake为最低要求
- Go版本1.22或更高版本
- MinGW(选择一个变体)与GCC。
$env:CGO_ENABLED="1"
go generate ./...
go build .
启动服务器
./ollama serve
运行此模型
ollama run hhao/openbmb-minicpm-llama3-v-2_5
Windows CUDA(NVIDIA)构建
除了上述常见Windows开发工具外,安装MSVC后安装CUDA。
Windows ROCm(AMD Radeon)构建
除了上述常见Windows开发工具外,安装MSVC后安装AMD的HIP软件包。
最后,将MSVC附带的所有ninja.exe
添加到系统路径中(例如 C:\Program Files (x86)\Microsoft Visual Studio\2019\Community\Common7\IDE\CommonExtensions\Microsoft\CMake\Ninja
)。
Linux构建
有关Linux的详细信息,请参阅开发者指南。
MiniCPM-V:您的手机上的GPT-4V级多模态LLM
- MiniCPM-Llama3-V 2.5:🔥🔥🔥 MiniCPM-V系列中最新且功能最强大的模型。共有8B个参数,在整体性能上超过了GPT-4V-1106、Gemini Pro、Qwen-VL-Max和Claude 3等专有模型。配备了增强的OCR和指令跟随能力,该模型也可以支持包括英语、中文、法语、西班牙语、德语等在内的超过30种语言的跨模态对话。借助量化、编译优化、以及CPU和NPU上的几种高效推理技术,MiniCPM-Llama3-V 2.5可以在端侧设备上高效部署。
新闻
📌 粘贴
- [2024.05.28] 🚀🚀🚀 MiniCPM-Llama3-V 2.5现在完全支持其llama.cpp和ollama中的特性!请拉取llama.cpp和ollama的最新代码。我们还发布了几种大小的GGUF。ollama使用的FAQ列表将于一天内发布。请继续关注!
- [2024.05.28] 💫 我们现在支持仅使用2个V100 GPU的MiniCPM-Llama3-V 2.5的LoRA微调,更多信息请在这里查看。
- [2024.05.23] 🔍 我们发布了Phi-3-vision-128k-instruct和MiniCPM-Llama3-V 2.5的全面比较,包括基准评测、多语言能力以及推理效率🌟📊🌍🚀。点击这里查看更多详情。
- [2024.05.23] 🔥🔥🔥 MiniCPM-V排名GitHub趋势和Hugging Face趋势首位!我们推荐的演示,由Hugging Face Gradio官方账户推荐,可在这里体验。快来试试吧!
- [2024.05.25] MiniCPM-Llama3-V 2.5现在支持流式输出和自定义系统提示。来这里试用!
- [2024.05.24] 我们发布了MiniCPM-Llama3-V 2.5的gguf,支持llama.cpp推理,在手机上提供6~8 token/s的流畅解码。现在就来试用吧!
- [2024.05.20] 我们开源了MiniCPM-Llama3-V 2.5,它改善了OCR功能,支持30+种语言,代表着第一个达到GPT-4V级别性能的端侧MLLM!我们提供了高效推理和简单的微调。现在就来试用吧!
- [2024.04.23] MiniCPM-V-2.0现在支持vLLM!点击这里查看更多详情。
- [2024.04.18] 我们创建了HuggingFace Space来托管MiniCPM-V 2.0的演示,地址在这里!
- [2024.04.17] MiniCPM-V-2.0现在也支持与SWIFT框架的微调!
- [2024.04.15] MiniCPM-V-2.0现在也支持微调!
- [2024.04.12] 我们开源了 MiniCPM-V 2.0,该版本在场景文本理解方面与 Gemini Pro 表现相当,并在 OpenCompass 榜单上优于强劲的 Qwen-VL-Chat 9.6B 和 Yi-VL 34B,这是一个涵盖 11 个流行基准的综合评估。点击 这里 查看MiniCPM-V 2.0 技术博客。
- [2024.03.14] MiniCPM-V 现在支持使用 SWIFT 框架 进行微调。感谢 Jintao 的贡献!
- [2024.03.01] MiniCPM-V 现已支持在 Mac 上部署!