【DeepSeek部署经验】Ollama(运行平台)+DeekSeek(对话模型)+Cherry Studio(可视化对话界面)
引言:一套快速实现 DeepSeek-R1 部署的教程
✅
笔者简介:Wang Linyong,西工大,2023级,计算机技术
研究方向:文本生成、大语言模型
笔者的电脑配置:
版本 | |
---|---|
CPU | Intel® Core™ i9-14900KF |
Driver(驱动) | 560.94 |
GPU(一张) | NVIDIA GeForce RTX 4060 |
CUDA | 12.6 |
文章目录
- 1. 下载 Ollama (运行平台)
- 2. 下载 DeekSeek (对话模型)
- 3. 下载 Cherry Studio (可视化对话界面)
- 4. 参考资料
- 5. 补充说明
1. 下载 Ollama (运行平台)
● Ollama 是一个免费开源的本地大语言模型运行平台,可以帮你把 DeepSeek 模型下载到你的电脑并运行。
● Ollama 平台下载链接:https://ollama.com/download/windows
● 我下载的是 Windows
版的:
● 双击它开始安装。
● 点击 Install
开始安装。(PS: 好简洁的操作)
● 它会直接安装在 C
盘(系统盘),静等安装好就行。
● 安装好后的测试:直接搜索 cmd
,打开 “命令提示符”。或者按 “windows健 + R
”。
● 在命令行窗口输入 ollama
,输出类似下图,就说明安装成功了。如果提示你找不到该命令,就重启一下电脑再试试。如果还是不行,检查一下 “环境变量”,把 ollama
的环境目录加入你的用户变量框框里。
2. 下载 DeekSeek (对话模型)
● DeepSeek 是由中国的深度求索(DeepSeek)公司独立开发的智能助手。
● DeepSeek-R1 下载链接:https://ollama.com/library/deepseek-r1
● 如果你的电脑有独立显卡(我有 4060
,所以选择 8b
),推荐下 7b
或者 8b
的模型,如果没有,推荐下 1.5b
的模型。
● 把复制的命令直接输入命令行窗口就行。提示: 模型它可能越下载越慢,直接 ctrl+C
再重新下载就行,或者挂/关梯子等。
● 当出现 success
时代表下载成功了。
● 这个时候我们可以在这个终端,使用命令行的方式进行对话:
● 测试样例1:
你好,请简短介绍一下自己
● 测试样例2:
我有100元,坐车花了20元,又把剩下的钱分了一半给我妹,我还剩多少钱?
3. 下载 Cherry Studio (可视化对话界面)
● Cherry Studio 是一个支持多家大模型平台的 AI 客户端,使用它可以直接对接 ollama api,实现窗口式的对话效果。
● Cherry Studio 下载链接:https://cherry-ai.com/
● 点击 下载客户端
,进入下载界面。
● 点击 立即下载
,开始下载。
● 双击它开始安装。
● 点击 下一步
。
● 选择好安装路径后,点击 安装
。
● 安装好后,打开是这个界面,再点击左下角的 “设置”。
● 先关闭一开始默认选择的 “硅基流动” 模型,如下图所示。
● 再选择 “Ollama”,并打开它,如下图所示。
● 点击 “加号”,把之前下载的 “deepseek-r1:8b” 模型加载进来,然后关闭这个“弹窗”。
● 然后再回到首页,即点击左上角的 “对话图标”。
● 接着点击 “①” 处,把默认的模型换成如图所示的 “deepseek-r1:8b”(即“②”)。
● OK!现在就可以通过对话窗口进行对话了!!😊😊😊
● 同样的测试样例1:
你好,请简短介绍一下自己
● 同样的测试样例2:
我有100元,坐车花了20元,又把剩下的钱分了一半给我妹,我还剩多少钱?
● 我用的之前相同的问题(命令行窗口的那两个)来问的它,第 2
个的答案最后竟然是错的!看来其 “聪明” 程度还有待提升呢 👀
4. 参考资料
[1] 《全网最简单的Deepseek本地部署方法,谁都可以照抄!》
5. 补充说明
● 若有写得不对、欠妥的地方,或有疑问,欢迎评论交流。
⭐️ ⭐️ 完稿于 2025年2月24日 19:59 教研室工位 💻