ubuntu部署ollama+deepseek+open-webui
ubuntu部署ollama+deepseek+open-webui
全文-ubuntu部署ollama+deepseek+open-webui
大纲
- Ollama部署 - 安装Ollama:使用命令apt install curl和curl -fsSL https://ollama.com/install.sh | sh ollama-v
- 网络访问配置:设置环境变量OLLAMA_HOST=0.0.0.0:11434,并刷新和重启服务
- 修改模型默认存储目录:设置环境变量OLLAMA_MODELS=/xxx/models,并刷新和重启服务
 
- 安装Ollama:使用命令
- Deepseek模型部署 - 在线安装:使用命令ollama pull deepseek-r1:1.5b
- 离线导入:从Ollama官网下载Deepseek-r1,模型描述文件目录为/usr/share/ollama/.ollama/models/manifests/registry.ollama.ai/library,模型目录为/usr/share/ollama/.ollama/models/blobs
- 模型运行测试:使用命令ollama list查看已安装模型,使用ollama run deepseek-r1:1.5b进行控制台交互
- Ollama API调用方式:使用Curl命令调用API,例如curl http://<ip>:11434/api/chat
 
- 在线安装:使用命令
- Open-WebUI部署 - 依赖环境:包含Python3.11、数据库等
- Docker部署:运行官方推荐的Docker命令,例如docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always <镜像名>
- 网络设置失败处理:在低版本操作系统和内核中,网络模式改为--network host
- 配置Ollama模型连接:在Open-WebUI中设置Ollama的URL连接,配置完成后选择模型进行对话
 
