部署ollama
curl https://ollama.com/install.sh |bash #此方法可能需要翻墙 或者这个 wget https://github.com/ollama/ollama/releases/download/v0.5.7/ollama-linux-amd64.tgz tar zxvf ollama-linux-amd64.tgz |
配置systemd服务
vi /etc/systemd/system/ollama.service [Service] ... Environment="OLLAMA_HOST=0.0.0.0" Environment="OLLAMA_ORIGINS=*" ... |
在[Service]下方增加两行,改完之后如下

重启ollama服务
systemctl daemon-reload && systemctl restart ollama |
浏览器访问:http://10.10.31.89:11434/ 能够打开如下就是正常的
![]()
安装deepseek R1
打开deepseek模型选择页:https://ollama.com/library/deepseek-r1:7b

我们选择7b安装
ollama run deepseek-r1:7b |
部署客户端
打开https://cherry-ai.com/ 下载安装即可
网页客户端:
使⽤ docker ⽅式安装客户端⼯具: docker pull ghcr.mirrorify.net/open-webui/open-webui:main vim docker-openwebui.sh -- docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=http://10.1.192.54:11434 --p rivileged=true -v open-webui:/app/backend/data --name open-webui --restar t always ghcr.mirrorify.net/open-webui/open-webui:main-- chmod +x docker-openwebui.sh ./docker-openwebui.sh |
docker-compose 部署
version: '3.8'
services:
open-webui:
image: ghcr.mirrorify.net/open-webui/open-webui
container_name: open-webui
ports:
- "3000:8080"
environment:
- OLLAMA_BASE_URL=http://10.1.192.54:11434
privileged: true
volumes:
- open-webui:/app/backend/data
restart: always
volumes:
open-webui: |