引言

随着人工智能技术的迅猛进步,越来越多的用户开始关注如何将大型模型部署在本地。DeepSeek作为一款备受推崇的开源大语言模型,不仅性能卓越,还提供了便捷的本地部署选项。通过这一方案,用户能够在确保数据安全的同时,充分利用本地资源高效运行模型,而且还能最大程度上保护用户的隐私,下面我我们就开始一步步的教会大家部署教程。

一、环境准备

  1. 硬件需求:DeepSeek的最低配置要求为:CPU必须支持AVX2指令集,并配备至少16GB的内存和30GB的存储空间。若要充分发挥其性能,推荐使用NVIDIA GPU,如RTX 3090或更高版本,并配备32GB内存和50GB存储空间。
  2. 环境依赖:支持Windows、macOS或Linux。

二、安装Ollama

Ollama是一款开源工具,旨在为本地运行和部署大型语言模型提供便捷,它可以支持多种模型,可以运行Qwen、Llama、DeepSeek-R1、Llama 3.3、Phi-4、Mistral、Gemma 2 等多种先进的语言模型,接下来就是如何下载安装Ollama,我这里用的是win10系统。

  • 进入Ollama官网:直接点击进入,如果下载太慢的话,可复制URL到迅雷,实测很快。
    直接点击下载如果速度较慢的话,可以复制URL到迅雷,可快速下载
  • 下载完成后,按下win+R打开控制台输入下面命令,如果有下面反馈命令,恭喜Ollama安装成功。
ollama -v

在这里插入图片描述

三、安装Deepseek r1模型

1.选择模型版本

安装完了Ollama之后,接下来就是安装本地deepseek-r1模型,回到Ollama官网,点击Models,找到deepseek-r1,在下拉列表里面可以选择不同的版本,我这里因为电脑配置窘迫的原因选择的14b,如果兄弟们的电脑配置以及内存足够的话,可以尝试满血版本的671b版本。
在这里插入图片描述

2.下载deepseek模型

选择版本之后复制右侧的命令,如我这里选的是14b,ollama run deepseek-r1:14b,复制到控制台输入命令
在这里插入图片描述
如果出现上述success的提示,则代表deepseek模型安装成功。

3. 验证deepseek-r1是否安装成功

输入win+R打开控制台,输入ollama list
在这里插入图片描述
可以看到模型列表中就有刚才下载的deepseek-r1:14b。到这里,本地模型就已经完全配置完成了。

4.开始对话

输入win+R打开控制台,输入ollama run deepseek-r1:14b
在这里插入图片描述可以看到deepseek回复了一个 Send a message (/? for help),这就代表已经可以正常对话。
在这里插入图片描述

四、安装Cherry Studio

如果一直在控制台中输入对话命令,肯定会不方便,所以就需要一款适用的AI助手,这个时候就可以用到cherry studio,这款工具使用简单,自带大量提示词模板,省掉了我们需要针对不同场景优化提示词的时间;还支持生成图片、翻译、搭建个人知识库等诸多功能。

1. 下载安装

点击这里进入下载
在这里插入图片描述

2. 添加嵌入模型

在这里插入图片描述

3. 添加deepseek-r1模型到cherry studio

在这里插入图片描述

4. 开始正常对话提问

在这里插入图片描述

到这里本地部署完全结束了,以上均为个人经验安装,如有错误,欢迎指正。

Alt

Logo

2万人民币佣金等你来拿,中德社区发起者X.Lab,联合德国优秀企业对接开发项目,领取项目得佣金!!!

更多推荐