本地部署DeepSeek-R1模型

下载并安装Ollama(由于要从国外下载,所以非常耗时)
[root@localhost src]# curl -fsSL https://ollama.com/install.sh | sh
 
如果下载失败可以把install.sh文件下载到本地并进行修改,该*.sh下载的是以下几个文件:
https://ollama.com/download/ollama-linux-${ARCH}.tgz${VER_PARAM}
https://ollama.com/download/ollama-linux-${ARCH}-jetpack6.tgz${VER_PARAM}
https://ollama.com/download/ollama-linux-${ARCH}-jetpack5.tgz${VER_PARAM}
https://ollama.com/download/ollama-linux-${ARCH}-rocm.tgz${VER_PARAM}
 
下面是最终下载地址(JetPack是NVIDIA的SDK,属于可选软件),先把这些*.tgz文件下载到本地,放到install.sh文件所在目录
https://ollama.com/download/ollama-linux-amd64.tgz【1.57GB】
https://ollama.com/download/ollama-linux-amd64-jetpack6.tgz【无资源】
https://ollama.com/download/ollama-linux-amd64-jetpack5.tgz【无资源】
https://ollama.com/download/ollama-linux-amd64-rocm.tgz【1.13GB】
 
修改install.sh文件,将下载文件命令注释掉(跳过下载),然后修改“$SUDO tar -xzf - -C "$OLLAMA_INSTALL_DIR"”命令,将“-xzf”后面的“-”改为对应的*.tgz文件即可,如:$SUDO tar -xzf ./ollama-linux-amd64.tgz -C "$OLLAMA_INSTALL_DIR"
 
 
 
修改Ollama的service文件,增加OLLAMA_HOST和OLLAMA_ORIGINS两个环境变量
[root@localhost ~]# vim /etc/systemd/system/ollama.service
[Unit]
Description=Ollama Service
After=network-online.target
 
[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/lib64/qt-3.3/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin"
Environment="OLLAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_ORIGINS=*"
 
[Install]
WantedBy=default.target
[root@localhost ~]# systemctl daemon-reload
[root@localhost ~]# systemctl restart ollama
说明:在浏览器打开“http://192.168.*.*:11434”,如果在页面中看到“Ollama is running”说明Ollama已经成功启动。


 
运行DeepSeek-R1:1.5B模型
[root@localhost ~]# ollama run deepseek-r1:1.5b
>>> 你是谁?
<think>
 
</think>
 
您好!我是由中国的深度求索(DeepSeek)公司开发的智能助手DeepSeek-R1。如您有任何任何问题,我会尽我所能为您提供帮助。
 
>>> /bye
[root@localhost ~]#


 
如果要运行DeepSeek-R1其它版本只需要修改冒号后面的数字(可根据硬件性能选择,数字越大需要的硬件性能越强大)
[root@localhost ~]# ollama run deepseek-r1:1.5b
[root@localhost ~]# ollama run deepseek-r1:7b
[root@localhost ~]# ollama run deepseek-r1:8b
[root@localhost ~]# ollama run deepseek-r1:14b
[root@localhost ~]# ollama run deepseek-r1:32b
[root@localhost ~]# ollama run deepseek-r1:70b
[root@localhost ~]# ollama run deepseek-r1:671b
说明①:需要先启动ollama服务(systemctl start ollama)才能运行DeepSeek-R1模型。
说明②:可在“https://ollama.com/library/deepseek-r1”查看DeepSeek-R1模型有哪些版本。


 
Ollama服务管理命令
[root@localhost ~]# systemctl status ollama
[root@localhost ~]# systemctl start ollama
[root@localhost ~]# systemctl stop ollama
[root@localhost ~]# systemctl restart ollama
[root@localhost ~]# systemctl enable ollama
[root@localhost ~]# systemctl disable ollama

Copyright © 2025 码农人生. All Rights Reserved