部署ollama
Code Block |
---|
curl -Lhttps://ollama.com/install.sh |bash #此方法可能需要翻墙 或者这个 wget https://ollamagithub.com/ollama/ollama/releases/download/v0.5.7/ollama-linux-amd64.tgz tar zxvf -o /usr/bin/ollamaollama-linux-amd64.tgz |
配置systemd服务
Code Block |
---|
vi /etc/systemd/system/ollama.service
[Service]
...
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"
... |
在[Service]下方增加两行,改完之后如下
重启ollama服务
Code Block |
---|
systemctl daemon-reload && systemctl restart ollama |
浏览器访问:http://10.10.31.89:11434/ 能够打开如下就是正常的
安装deepseek R1
打开deepseek模型选择页:https://ollama.com/library/deepseek-r1:7b
我们选择7b安装
Code Block |
---|
ollama run deepseek-r1:7b |
部署客户端
打开https://cherry-ai.com/ 下载安装即可
网页客户端:
Code Block |
---|
使⽤
docker
⽅式安装客户端⼯具:
docker pull ghcr.mirrorify.net/open-webui/open-webui:main
vim docker-openwebui.sh --
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=http://10.1.192.54:11434 --p
rivileged=true -v open-webui:/app/backend/data --name open-webui --restar
t always ghcr.mirrorify.net/open-webui/open-webui:main--
chmod +x docker-openwebui.sh
./docker-openwebui.sh |
docker-compose 部署
Code Block |
---|
version: '3.8'
services:
open-webui:
image: ghcr.mirrorify.net/open-webui/open-webui
container_name: open-webui
ports:
- "3000:8080"
environment:
- OLLAMA_BASE_URL=http://10.1.192.54:11434
privileged: true
volumes:
- open-webui:/app/backend/data
restart: always
volumes:
open-webui: |