当前位置: 首页 > news >正文

ubuntu 安装ollama后,如何让外网访问?

官网下载linux版本:https://ollama.com/download/linux

1、一键安装和运行

curl -fsSL https://ollama.com/install.sh | sh

2、下载和启动deepseek-r1大模型

ollama run deepseek-r1

这种方式的ollama是systemd形式的服务,会随即启动。默认开启了 11434端口,并且绑定的地址是127.0.0.1,只能在本地访问,无法在其他服务器访问。为了让外网能访问,需要将地址改为0.0.0.0,因为我们采取官方的这种一键安装形式,所以需要以下操作。

查看端口号11434的地址。

#查看端口:
sudo netstat -tuln | grep 11434

3、编辑配置文件

sudo systemctl edit --full ollama.service

需要在Environment里追加 "OLLAMA_HOST=0.0.0.0"。注意Envirinment的格式如下:

Environment="VAR1=value1" "VAR2=value2"

 则我们在后面加空格,再加上键值对。

Ctrl+X, Y保存退出。

重启服务

sudo systemctl daemon-reloadsudo systemctl restart ollama.service

4、手动安装的说明

ollama提供了手动安装的方式,网址如下:

https://github.com/ollama/ollama/blob/main/docs/linux.md

采用这种方式的话,配置0.0.0.0的方式跟上面的略有不一样,参考网址:

https://github.com/ollama/ollama/blob/main/docs/linux.md
 


http://www.mrgr.cn/news/100506.html

相关文章:

  • 继续 那个错误分析
  • JVM常见的垃圾回收器
  • 网络:手写HTTP
  • cocos creator使用jenkins打包流程,打包webmobile
  • Python3:Jupyter Notebook 安装和配置
  • Crawl4AI 部署安装及 n8n 调用,实现自动化工作流(保证好使)
  • 【视频生成模型】通义万相Wan2.1模型本地部署和LoRA微调
  • 在 Cursor 中 配置 GitHub MCP Server
  • 【3DMax脚本MaxScript开发:创建高效模型虚拟体绑定和材质管理系统,从3DMax到Unreal和Unity引擎_系列第一篇】
  • 【RabbitMQ消息队列】详解(一)
  • 从视频中学习:从Humanoid-X、UH-1的自动打字幕,到首个人形VLA Humanoid-VLA(自监督数据增强且整合第一人称视角)
  • WPF常用技巧汇总 - Part 2
  • DeepSeek 多头潜在注意力(Multi-Head Latent Attention, MLA)技术
  • STM32F103_HAL库+寄存器学习笔记21 - CAN接收过滤器:CPU减负神器,提升系统效率的第一道防线
  • Drivestduio 代码笔记与理解
  • 论文检索相关网站
  • 大模型API密钥的环境变量配置(大模型API KEY管理)(将密钥存储在环境变量)(python-dotenv)(密钥管理)环境变量设置环境变量
  • 新能源汽车运动控制器核心芯片选型与优化:MCU、DCDC与CANFD协同设计
  • T检验、F检验及样本容量计算学习总结
  • Simulink与C的联合仿真调试