【DeepSeek+Cherry Studio本地部署安装教程】
安装完了Ollama之后,接下来就是安装本地deepseek-r1模型,回到Ollama官网,点击Models,找到deepseek-r1,在下拉列表里面可以选择不同的版本,我这里因为电脑配置窘迫的原因选择的14b,如果兄弟们的电脑配置以及内存足够的话,可以尝试满血版本的671b版本。如果一直在控制台中输入对话命令,肯定会不方便,所以就需要一款适用的AI助手,这个时候就可以用到cherry stu
DeepSeek+Cherry Studio本地部署安装教程
引言
随着人工智能技术的迅猛进步,越来越多的用户开始关注如何将大型模型部署在本地。DeepSeek作为一款备受推崇的开源大语言模型,不仅性能卓越,还提供了便捷的本地部署选项。通过这一方案,用户能够在确保数据安全的同时,充分利用本地资源高效运行模型,而且还能最大程度上保护用户的隐私,下面我我们就开始一步步的教会大家部署教程。
一、环境准备
- 硬件需求:DeepSeek的最低配置要求为:CPU必须支持AVX2指令集,并配备至少16GB的内存和30GB的存储空间。若要充分发挥其性能,推荐使用NVIDIA GPU,如RTX 3090或更高版本,并配备32GB内存和50GB存储空间。
- 环境依赖:支持Windows、macOS或Linux。
二、安装Ollama
Ollama是一款开源工具,旨在为本地运行和部署大型语言模型提供便捷,它可以支持多种模型,可以运行Qwen、Llama、DeepSeek-R1、Llama 3.3、Phi-4、Mistral、Gemma 2 等多种先进的语言模型,接下来就是如何下载安装Ollama,我这里用的是win10系统。
- 进入Ollama官网:直接点击进入,如果下载太慢的话,可复制URL到迅雷,实测很快。
- 下载完成后,按下win+R打开控制台输入下面命令,如果有下面反馈命令,恭喜Ollama安装成功。
ollama -v
三、安装Deepseek r1模型
1.选择模型版本
安装完了Ollama之后,接下来就是安装本地deepseek-r1模型,回到Ollama官网,点击Models,找到deepseek-r1,在下拉列表里面可以选择不同的版本,我这里因为电脑配置窘迫的原因选择的14b,如果兄弟们的电脑配置以及内存足够的话,可以尝试满血版本的671b版本。
2.下载deepseek模型
选择版本之后复制右侧的命令,如我这里选的是14b,ollama run deepseek-r1:14b
,复制到控制台输入命令
如果出现上述success
的提示,则代表deepseek模型安装成功。
3. 验证deepseek-r1是否安装成功
输入win+R打开控制台,输入ollama list
可以看到模型列表中就有刚才下载的deepseek-r1:14b。到这里,本地模型就已经完全配置完成了。
4.开始对话
输入win+R打开控制台,输入ollama run deepseek-r1:14b
可以看到deepseek回复了一个
Send a message (/? for help)
,这就代表已经可以正常对话。
四、安装Cherry Studio
如果一直在控制台中输入对话命令,肯定会不方便,所以就需要一款适用的AI助手,这个时候就可以用到cherry studio,这款工具使用简单,自带大量提示词模板,省掉了我们需要针对不同场景优化提示词的时间;还支持生成图片、翻译、搭建个人知识库等诸多功能。
1. 下载安装
2. 添加嵌入模型
3. 添加deepseek-r1模型到cherry studio
4. 开始正常对话提问
到这里本地部署完全结束了,以上均为个人经验安装,如有错误,欢迎指正。
,
更多推荐
所有评论(0)