【DeepSeek部署经验】Ollama(运行平台)+DeekSeek(对话模型)+Cherry Studio(可视化对话界面)
引言:一套快速实现 DeepSeek-R1 部署的教程
✅
笔者简介:Wang Linyong,西工大,2023级,计算机技术
研究方向:文本生成、大语言模型
笔者的电脑配置:
| 版本 | |
|---|---|
| CPU | Intel® Core™ i9-14900KF | 
| Driver(驱动) | 560.94 | 
| GPU(一张) | NVIDIA GeForce RTX 4060 | 
| CUDA | 12.6 | 
文章目录
- 1. 下载 Ollama (运行平台)
 - 2. 下载 DeekSeek (对话模型)
 - 3. 下载 Cherry Studio (可视化对话界面)
 - 4. 参考资料
 - 5. 补充说明
 
1. 下载 Ollama (运行平台)
● Ollama 是一个免费开源的本地大语言模型运行平台,可以帮你把 DeepSeek 模型下载到你的电脑并运行。
● Ollama 平台下载链接:https://ollama.com/download/windows
● 我下载的是 Windows 版的:

 
 
● 双击它开始安装。

● 点击 Install 开始安装。(PS: 好简洁的操作)

 
 
● 它会直接安装在 C 盘(系统盘),静等安装好就行。

● 安装好后的测试:直接搜索 cmd,打开 “命令提示符”。或者按 “windows健 + R”。

● 在命令行窗口输入 ollama,输出类似下图,就说明安装成功了。如果提示你找不到该命令,就重启一下电脑再试试。如果还是不行,检查一下 “环境变量”,把 ollama 的环境目录加入你的用户变量框框里。

2. 下载 DeekSeek (对话模型)
● DeepSeek 是由中国的深度求索(DeepSeek)公司独立开发的智能助手。
● DeepSeek-R1 下载链接:https://ollama.com/library/deepseek-r1
● 如果你的电脑有独立显卡(我有 4060,所以选择 8b),推荐下 7b 或者 8b 的模型,如果没有,推荐下 1.5b 的模型。

● 把复制的命令直接输入命令行窗口就行。提示: 模型它可能越下载越慢,直接 ctrl+C 再重新下载就行,或者挂/关梯子等。

● 当出现 success 时代表下载成功了。

● 这个时候我们可以在这个终端,使用命令行的方式进行对话:
● 测试样例1:
你好,请简短介绍一下自己
 
● 测试样例2:
我有100元,坐车花了20元,又把剩下的钱分了一半给我妹,我还剩多少钱?
 

3. 下载 Cherry Studio (可视化对话界面)
● Cherry Studio 是一个支持多家大模型平台的 AI 客户端,使用它可以直接对接 ollama api,实现窗口式的对话效果。
● Cherry Studio 下载链接:https://cherry-ai.com/
● 点击 下载客户端,进入下载界面。

● 点击 立即下载,开始下载。

● 双击它开始安装。

● 点击 下一步。

● 选择好安装路径后,点击 安装。

● 安装好后,打开是这个界面,再点击左下角的 “设置”。

● 先关闭一开始默认选择的 “硅基流动” 模型,如下图所示。

● 再选择 “Ollama”,并打开它,如下图所示。

● 点击 “加号”,把之前下载的 “deepseek-r1:8b” 模型加载进来,然后关闭这个“弹窗”。

● 然后再回到首页,即点击左上角的 “对话图标”。

● 接着点击 “①” 处,把默认的模型换成如图所示的 “deepseek-r1:8b”(即“②”)。

● OK!现在就可以通过对话窗口进行对话了!!😊😊😊
● 同样的测试样例1:
你好,请简短介绍一下自己
 
● 同样的测试样例2:
我有100元,坐车花了20元,又把剩下的钱分了一半给我妹,我还剩多少钱?
 

● 我用的之前相同的问题(命令行窗口的那两个)来问的它,第 2 个的答案最后竟然是错的!看来其 “聪明” 程度还有待提升呢 👀
4. 参考资料
[1] 《全网最简单的Deepseek本地部署方法,谁都可以照抄!》
5. 补充说明
● 若有写得不对、欠妥的地方,或有疑问,欢迎评论交流。
⭐️ ⭐️ 完稿于 2025年2月24日 19:59 教研室工位 💻
