1、安装ollama
Linux/macOS # 一键安装脚本
进入实例:
安装ollama
apt install lshw
curl -fsSL https://ollama.com/install.sh | sh
2、启动ollama:
cd /root
OLLAMA_HOST=0.0.0.0:8080 OLLAMA_MODELS=/kp-data/ollama/models ollama serve > /root/ollama.log 2>&1 &
3、下载模型:
#默认是1.5B,如果1.5B模型无法满足需求,可在命令行后输入7B/8B/14B等参数指令,自由切换至对应规格的模型
OLLAMA_HOST=0.0.0.0:8080 OLLAMA_MODELS=/kp-data/ollama/models ollama pull deepseek-r1
4、模型使用
查看deepseek:
OLLAMA_HOST=0.0.0.0:8080 OLLAMA_MODELS=/kp-data/ollama/models ollama list
启动deepseek:
OLLAMA_HOST=0.0.0.0:8080 OLLAMA_MODELS=/kp-data/ollama/models ollama run deepseek-r1
退出deepseek:
ctrl + d
删除deepseek:
OLLAMA_HOST=0.0.0.0:8080 OLLAMA_MODELS=/kp-data/ollama/models ollama rm deepseek-r1
停止ollama服务:
ps -ef | grep ollama #ollama的pid
kill -9 pid
5、通过 API 调用模型
Ollama 提供 REST API,支持编程调用: # 示例:通过 curl 生成文本
curl http://localhost:11434/api/generate -d '{
"model": "deepseek-r1",
"prompt": "9.11和9.9那个大!",
"stream": false
}'
Python 调用示例import requests:
response = requests.post(
"http://localhost:11434/api/generate",
json={"model": "deepseek-r1", "prompt": "解释量子计算"}
)
print(response.json()["response"])