模型部署
DeepSeek-R1

1、安装ollama

Linux/macOS		# 一键安装脚本

进入实例:

安装ollama

apt install lshw

curl -fsSL https://ollama.com/install.sh | sh

2、启动ollama:

cd /root

OLLAMA_HOST=0.0.0.0:8080 OLLAMA_MODELS=/kp-data/ollama/models ollama serve > /root/ollama.log 2>&1 &

3、下载模型:

#默认是1.5B,如果1.5B模型无法满足需求,可在命令行后输入7B/8B/14B等参数指令,自由切换至对应规格的模型

OLLAMA_HOST=0.0.0.0:8080 OLLAMA_MODELS=/kp-data/ollama/models ollama pull deepseek-r1

4、模型使用

查看deepseek:

OLLAMA_HOST=0.0.0.0:8080 OLLAMA_MODELS=/kp-data/ollama/models ollama list

启动deepseek:

OLLAMA_HOST=0.0.0.0:8080 OLLAMA_MODELS=/kp-data/ollama/models ollama run deepseek-r1

退出deepseek:

ctrl + d

删除deepseek:

OLLAMA_HOST=0.0.0.0:8080 OLLAMA_MODELS=/kp-data/ollama/models ollama rm deepseek-r1

停止ollama服务:

ps -ef | grep ollama		#ollama的pid

kill -9 pid

5、通过 API 调用模型

Ollama 提供 REST API,支持编程调用:	# 示例:通过 curl 生成文本

curl http://localhost:11434/api/generate -d '{
  "model": "deepseek-r1",
  "prompt": "9.11和9.9那个大!",
  "stream": false
}'

Python 调用示例import requests:

response = requests.post(

  "http://localhost:11434/api/generate",

  json={"model": "deepseek-r1", "prompt": "解释量子计算"}

)

print(response.json()["response"])