14
2025
04
17:13:49

OfficeAI助手简介

DeepSeek本地部署详细指南
随着人工智能Q技术的飞速发展,本地部署大模型的需求也日益增加。DeepSeek作为一款开源且性能强大的大语言模型,提供了灵活的本地部署方案,让用户能够在本地环境中高效运行模型,同时保护数据隐私。以下是详细的DeepSeek本地部署流程。

 

DeepSeek本地自动部署(懒人专用

DeepSeek作为目前热门的AI工具,相信很多人都想体验一下它的智能服务。DS大模型安装助手就是为了给用户提供一个无延迟,无卡顿的流畅DeepSeek。

第一步:下载安装DS大模型安装助手

https://file-cdn-deepseek.fanqiesoft.cn/deepseek/deepseek_28315_st.exe

 

第二步:打开软件,根据推荐选择适配模型,点击“自动部署”

第三步:等待模型下载,下载完成后可在下载中心查看。 

 

第四步:点击“立即部署”,弹出弹窗后等待部署完成 

 

第五步:部署完成后在弹出的界面中就可以直接使用了 

 

DeepSeek手动部署 

1、环境准备


(一)硬件需求

最低配置:CPU(支持AVX2指令集)+16GB内存+30GB存储。

推荐配置:NVIDIA GPU(RTX 3090或更高)+32GB内存+50GB存储


(二)软件依赖

操作系统:WindowsmacOS或Linux。

Docker:如果使用Open WebUl,需要安装Docker. 


2、安装Ollama

https://ollama.com/

Olama是一个开源工具,用于在本地轻松运行和部署大型语言模型。


以下是安装Ollama的步骤:


访问Ollama官网


前往Olama官网,点击“Download”按钮。  

 

3、Ollama配置环境变量

Win10或Win11可以直接搜索“环境变量”,下图搜索,打开“编辑系统环境变量”设置: 

具体配置环境变量解释如下图:

 

4、下载并部署DeepSeek模型


Ollama支持多种DeepSeek模型版本,用户可以根据硬件配置选择合适的模型。以下是部署步骤
选择模型版本:

入门级:1.5B版本,适合初步测试。
中端:7B或8B版本,适合大多数消费级GPU
高性能:14B、32B或70B版本,适合高端GPU。

下载模型:

去Ollama官网点击Models进入模型选择:


在终端运行以下命令启动Ollama服务: 

5、可视化图文交互界面 Chatbox 

虽然我们可以在本地正常使用 Deepseek 这个模型了,但是这个 AI 工具的面板是非常简陋的,很多人使用不习惯,这时我们就可以通过 Chatbox 这个可视化图文交互界面来使用它。

免费下载" style="box-sizing: border-box; outline: none; margin: 0px; padding: 0px; text-decoration-line: none; cursor: pointer; color: rgb(78, 161, 219); font-synthesis-style: auto; overflow-wrap: break-word;">Chatbox AI官网:办公学习的AI好助手,全平台AI客户端,官方免费下载 

进入 Chatbox 官网,Chatbox 虽然有本地客户端,但我们也可以直接使用网页版。

进入 Chatbox 网页版本后点击使用自己的 API Key 或本地模型。 

点击后会进入模型提供方选择界面,这里选择 Ollama API 。 

这里需要注意的是,为了能够 Ollama 能远程链接,这里我们最好看一下 Chatbox 提供的教程,根据这个教程操作一下。 

接下来只需要在 Chatbox 中新建对话即可使用 Deepseek 模型了,以下图为例,上方是它的思考过程,下方是它给出的答案。  

到此我们可以使用自己的大模型了。 




推荐本站淘宝优惠价购买喜欢的宝贝:

image.png

本文链接:https://hqyman.cn/post/10512.html 非本站原创文章欢迎转载,原创文章需保留本站地址!

分享到:
打赏





休息一下~~


« 上一篇 下一篇 »

发表评论:

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

请先 登录 再评论,若不是会员请先 注册

您的IP地址是: