以下是关闭和启动 **Ollama** 的详细方法,适用于不同场景:
一、关闭 Ollama 服务
1. 查找并终止进程(通用方法)
-查找占用端口的进程
sudo lsof -i :11434 # 默认端口11434
或
sudo netstat -tulnp | grep :11434
找到进程的 ID(例如 `1234`)。
-终止进程:
kill 1234 # 普通终止
kill -9 1234 # 强制终止(若普通终止无效)
或直接终止所有 `ollama` 相关进程:
pkill ollama
2. 通过 Systemd 服务关闭(如果已配置
- 如果 Ollama 是通过 systemd管理的服务(如安装为系统服务):
sudo systemctl stop ollama
二、启动 Ollama 服务
1. 直接启动(前台运行)
CUDA_VISIBLE_DEVICES=0 ollama serve # 指定GPU并启动服务
指定端口(避免冲突):
OLLAMA_HOST=0.0.0.0:11435 CUDA_VISIBLE_DEVICES=0 ollama serve
2. 后台运行
-使用 nohup 或 &让服务在后台运行:
nohup CUDA_VISIBLE_DEVICES=0 ollama serve > ollama.log 2>&1 &
-查看日志:
tail -f ollama.log
3. 通过 Systemd 服务启动(如果已配置)
sudo systemctl start ollama # 启动
sudo systemctl enable ollama # 设置开机自启
三、验证服务状态
1. 检查端口监听
lsof -i :11434 # 默认端口
或
netstat -tulnp | grep ollama
2. **检查进程**
ps aux | grep ollama
四、其他场景
1. Docker 容器运行
- 启动容器:
docker run -d -p 11434:11434 ollama/ollama
- 停止容器:
docker stop
2. Windows/macOS
- 关闭:直接在任务管理器(Windows)或活动监视器(macOS)中结束 `ollama` 进程。
- 启动:双击 Ollama 应用或通过终端运行 `ollama serve`。
总结
- 关闭:优先用 `pkill` 或 `kill` 终止进程,或通过 `systemctl` 管理。
- 启动:直接运行命令或配置后台服务。
- 避免端口冲突:可通过 `OLLAMA_HOST` 指定其他端口。
根据你的需求选择合适的方式即可!