deepseek本地部署
安装ollama linux环境安装ollama文档 https://github.com/ollama/ollama/blob/main/docs/linux.md 安装包:https://o

deepseek本地部署

发布时间:2025-02-20 (2025-02-20)

安装ollama

linux环境安装ollama文档

https://github.com/ollama/ollama/blob/main/docs/linux.md

安装包:https://ollama.com/download/ollama-linux-amd64.tgz

sudo tar -C /usr -xzf ollama-linux-amd64.tgz

配置systemctl

vi /etc/systemd/system/ollama.service

[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/bin/ollama serve
User=root
Group=root
Restart=always
RestartSec=3
Environment="PATH=$PATH"
Environment="OLLAMA_HOST=0.0.0.0"

[Install]
WantedBy=default.target


sudo systemctl daemon-reload  
sudo systemctl enable ollama

安装deepseek

https://ollama.com/library/deepseek-r1

选择自己合适的模型

ollama run deepseek-r1:1.5b

模型越大下的越久,占的内存和大小也越大

下载完之后就可以正常在命令行里面使用了

使用其他第三方工具

如果只是在命令行里面用,那就不太好用了

可以使用chatbox这个工具,然后配置一下api,就可以直接在客户端上使用了

https://chatboxai.app/zh

需要确定一下,你的服务器有没有开放11434端口,如果没开的话开一下

firewall-cmd --zone=public --add-port=11434/tcp --permanent
firewall-cmd --reload
firewall-cmd --zone=public --list-ports

然后就可以愉快的使用了

当然,如果你服务器配置强劲,还可以直接使用满血版deepseek