部署ollama
curl https://ollama.com/install.sh |bash #此方法可能需要翻墙 或者这个 wget https://github.com/ollama/ollama/releases/download/v0.5.7/ollama-linux-amd64.tgz tar zxvf ollama-linux-amd64.tgz |
配置systemd服务
vi /etc/systemd/system/ollama.service [Service] ... Environment="OLLAMA_HOST=0.0.0.0" Environment="OLLAMA_ORIGINS=*" ... |
在[Service]下方增加两行,改完之后如下
重启ollama服务
systemctl daemon-reload && systemctl restart ollama |
浏览器访问:http://10.10.31.89:11434/ 能够打开如下就是正常的
安装deepseek R1
打开deepseek模型选择页:https://ollama.com/library/deepseek-r1:7b
我们选择7b安装
ollama run deepseek-r1:7b |
部署客户端
打开https://cherry-ai.com/ 下载安装即可
网页客户端:
使⽤ docker ⽅式安装客户端⼯具: docker pull ghcr.mirrorify.net/open-webui/open-webui:main vim docker-openwebui.sh -- docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=http://10.1.192.54:11434 --p rivileged=true -v open-webui:/app/backend/data --name open-webui --restar t always ghcr.mirrorify.net/open-webui/open-webui:main-- chmod +x docker-openwebui.sh ./docker-openwebui.sh |
docker-compose 部署
version: '3.8' services: open-webui: image: ghcr.mirrorify.net/open-webui/open-webui container_name: open-webui ports: - "3000:8080" environment: - OLLAMA_BASE_URL=http://10.1.192.54:11434 privileged: true volumes: - open-webui:/app/backend/data restart: always volumes: open-webui: |