🌟 为什么选择Ollama?
特性 |
Ollama本地部署 |
云端AI服务 |
隐私性 |
🔒 数据完全本地处理 |
☁️ 数据需上传云端 |
可用性 |
🌐 完全离线可用 |
📶 依赖网络连接 |
成本 |
💰 免费开源 |
💸 订阅制付费 |
自定义程度 |
🛠️ 可完全自定义模型 |
⚙️ 有限定制 |
💡 适合场景:敏感数据处理/网络不稳定环境/长期使用成本考量
🛠️ 准备工作
硬件要求
最低配置:
- CPU:4核 (推荐Intel/AMD 64位)
- 内存:16GB
- 显存:8GB (NVIDIA/AMD)
- 存储:40GB可用空间
推荐配置:
- CPU:8核以上
- 内存:32GB+
- 显存:12GB+ (RTX 3060及以上)
- 存储:NVMe SSD
软件依赖
- Ollama官方客户端
- Docker Desktop
- Git (可选,用于源码部署)
📥 安装指南
第一步:安装Ollama核心
1 2 3 4
| curl -fsSL https://ollama.com/install.sh | sh
|
第二步:验证安装
下载完成后打开安装包,点击Install进行安装。
至此Ollama安装完毕,但要跟Ollama进行互动,事实上还需要一个操作界面“Open WebUI”
而Open WebUI必须要在Docker的环境中才能运行,Docker 安装全平台指南
第三步:部署Open WebUI (Docker方式)
确保拥有Docker容器并处在运行的状态后就可以进行Open WebUI的部署。
首先进入Open WebUI的官网https://docs.openwebui.com
根据官方文档描述来进行对应的安装。
1 2 3 4 5 6 7 8 9 10 11 12 13
|
docker network create ollama-net
docker run -d \ --name open-webui \ --network ollama-net \ -p 3000:8080 \ -v open-webui:/app/backend/data \ -e OLLAMA_BASE_URL=http://ollama:11434 \ --restart always \ ghcr.io/open-webui/open-webui:main
|
等待安装完成后在Docker中会多出一个Open WebUI的项目。
第四步:初始化配置
访问 http://localhost:3000
创建管理员账户(首个账户自动获得管理员权限)
接下来就会来到一个跟ChatGPT非常类似的界面,这里可以点击左下角将语言改成中文。
还有一些参数可以自行调整
在设置中:
切换语言为中文
调整”最大上下文长度”为4096
启用”流式响应”
🤖 模型部署实战
接下来就是模型的选择
Ollama有整理出当前最受欢迎的开源语言模型,这里我们选择qwen2.5(通义千问)。
根据本地物理设备的能力选择合适的训练数据集模型。
8g显存可以使用7B的训练量。
模型下载示例
1 2 3 4 5 6 7 8
| ollama run qwen-2.5-7B
ollama list
ollama rm qwen-2.5-7B
|
性能优化技巧
1 2 3 4 5
| export CUDA_VISIBLE_DEVICES=0
ollama run qwen2:7b --num-gpu-layers 35 --ctx-size 4096
|
🔍 常见问题排查
1. 下载中断
1 2 3
| ollama rm qwen2:7b ollama run qwen2:7b
|
2. 显存不足
- 改用更小参数的模型(如从7B降到4B)
- 增加交换空间(Linux):
1 2 3 4
| sudo fallocate -l 16G /swapfile sudo chmod 600 /swapfile sudo mkswap /swapfile sudo swapon /swapfile
|
3. WebUI无法连接
1 2 3 4 5 6 7 8
| docker ps -a
docker logs open-webui
docker restart open-webui
|
🚀 进阶配置
自定义模型微调
1.创建Modelfile:
1 2 3 4 5
| FROM qwen2:7b PARAMETER num_ctx 4096 SYSTEM """ 你是一个专业的中文AI助手,回答请使用礼貌用语。 """
|
2.构建自定义模型:
1
| ollama create my-ai -f Modelfile
|
外部访问配置
1 2 3 4 5
| docker run -d \ -p 3000:8080 \ -e OPEN_WEBUI_API=http://your-server-ip:11434 \ ghcr.io/open-webui/open-webui:main
|
📚 延伸阅读
- Ollama
- OpenWebUI
- ChatGPT
- 模型微调指南
🚀 本地部署大语言模型全指南 - Ollama + Open WebUI 实践