08
2025
02
14:40:56

如何在个人电脑上私有安装DeepSeek?彻底告别服务器繁忙!

这两天大家都被DeepSeek炸晕了吧,嘿嘿,其实DeepSeek也被大家炸晕了。

这是今天上午的情况↓

图片

没办法,这泼天的流量一般人扛不住~
想高频使用怎么办呢?本地装一个!
本地部署有两个好处:不联网,全私密,不担心隐私泄露,还可以挂载本地知识库完全免费,彻底告别“服务器繁忙”。

图片
图片
图片

如果你是苹果Mac本——

我们需要用到两个神器:

一个叫做Ollama,这是一个可以在本地运行和管理大模型的软件

另一个叫做Page Assist,这是个浏览器插件,提供本地大模型的图形化管理和对话界面。

一、下载Ollama,并拉取安装DeepSeek

Ollama是一个可以在本地运行和管理大模型的神器,完全本地运行,而且支持多种模型,包括但不限于Llama、DeepSeek、Qwen、Gemma等等。
登录网站,直接去下载页:
https://ollama.com/download

图片

直接下载macOS版本的程序,其实从上图你可以发现,Linux和Windows也是OK(这个咱后面再讲)。
下载后是一个压缩包,二话不说,直接解压,你会得到一个“草泥马”头像的程序

图片


图片
这个程序可以直接点击运行,但是建议你拖到「应用程序」目录下,便于用的时候以后好找。
图片
好了,接下来直接运行Ollama,然后进入到终端窗口↓
图片

图片

接下来运行命令,拉取对应版本的模型即可。
目前DeepSeek-R1可选的模型有满血版671B,和蒸馏版1.5B、7B、8B、14B、32B、70B:

图片

满血版个人电脑就别想了,其他蒸馏版大家根据电脑配置来选。
如果只是玩玩的话,建议不要选择太大的,14B以下的尝尝鲜。
Mac配置高的话,比如64G以上的内存,可以尝试32B或者70B,毕竟参数越大,模型智商越高。
我的电脑是96G内存,所以今天挑战一下70B版本,运行命令↓

ollamarundeepseek-r1:70B

前面命令都一样,后面输入对应的模型参数即可

图片
激动人心的时刻开始了,70B的模型有42G那么大,我这里的网络需要下载大概40分钟。
不急,泡杯咖啡慢慢等~
图片
经过一番漫长的等待,42GB的大模型终于拉取完毕,并安装成功(不知道为啥,最后3%的网速会非常慢,只有几百K,据说很多人和我一样。)
安装成功的界面是这样的↓
图片
在这个命令行下,就可以直接使用DeepSeek了↓
提问就可以,在两个<think></think>之间是推理过程,也就是收到问题以后,DeepSeek的内心戏↓

图片

完成推理后,DeepSeek就开始输出正题:一段诙谐幽默的自我介绍

图片

怎么样,这个回答还不错吧。
如果你觉得这个命令行界面跟玩文字mud似的,太土鳖了,没关系,接下来我们安装第二个神器,也就是Page Assist。
二、安装Page Assist,开始享用DeepSeek
Page Assist是一款Chrome浏览器插件,所以,你只需要打开Chrome,点击右上角“三个点”,然后“扩展程序”、“访问Chrome应用商店”。

图片

然后在应用商店中搜索“Page Assist”,第一个就是,点击安装即可。

图片

安装完成后,在浏览器右上角这个位置,点开就可以找到,可以用?钉住,方便以后随时打开使用
图片
点击图标就可以打开UI界面,怎么样,是不是界面舒服多了,可以选择对应的模型,然后开始提问了。
用法跟在线版的没啥区别。

图片

点击模型下拉框,可以查看已经安装的模型,我之前已经安装了14B,刚刚又装好了70B。

图片

点击右上角的齿轮,可以进行基础设置,比如更改语言、语音(默认都是英文,可以修改为简体中文)。
还可以更改默认搜索引擎,让大模型在推理的同时,开启联网搜索功能。
图片
图片
还可以添加本地知识库,让DeepSeek更具备个性化和专属性。
图片
至此,万事具备,让我们来体验一下70B的本地DeepSeek,到底聪明不聪明?
先小试牛刀↓
图片
接下来,我让它给IT技术从业者提出10点建议。
你来评评,它说的怎么样?
图片
单单运行了这么点东西,我的本子散热风扇已经开始呜呜作响了。

看来想要运行70B的模型,我这台mac还是有点小马拉大车了。

图片
图片
图片

如果你是Windows PC——

对应下载Windows版本的Ollama即可,其实安装过程大差不差。

只是Windows版本的安装程序比Mac版大多了。

图片


图片


安装完成后,同样打开命令行窗口,拉取对应的模型↓
图片
这次我们低调一点,拉取最小的1.5B模型(我是虚拟机,跑不动太大的。)
模型尺寸小还是好,瞬间搞定↓
图片

简单调戏一下,不得不说,参数量小的模型就是蠢,只能当玩具。

图片


接下来,可以继续安装Page Assist,进行图形化管理和对话,我就不重复了。


图片
图片
图片

如果你用的是Linux——


我们在Ubantu 22下玩一玩。(其实玩Linux的人不需要看教程图片

打开shell,直接运行命令↓


curl -fsSL https://ollama.com/install.sh | sh

就可以完成Ollama的下载和安装

图片

后面拉取和运行模型的步骤就一样了,不再赘述。


图片
图片
图片

如果你想用iPhone或安卓机——


其实,在手机上跑一个DeepSeek 1.5B也是可以的,只是这样干完全没有必要。
首先,1.5B模型太小太弱智,基本没什么用;第二,运行这个模型太烧机了。
所以如果不是非常特殊的用途,我建议你完全可以去用市面上各种流行的大模型助手:豆包、通义、元宝、文小言、讯飞星火、Kimi…
让他们赛马,你来翻牌子,既节省资源,效率还高。

图片


最后讲讲大家关注的电脑配置问题,其实我测试下来感觉配置要求其实不高,丐版电脑你就装小尺寸,豪版电脑你就装大尺寸。

当然从模型的可用性来讲,我建议至少24G以上的内存,运行14B以上的模型,如果有独立的N卡A卡更好,没有的话CPU跑跑也没关系。
大家也可以分别拉取不同尺寸的模型来测试(因为很简单),达到性能和体验的平衡。
现在赶紧行动起来,在你的电脑上装个DeepSeek吧,从此告别“服务器繁忙,请稍后再试”!




推荐本站淘宝优惠价购买喜欢的宝贝:

image.png

本文链接:https://hqyman.cn/post/8966.html 非本站原创文章欢迎转载,原创文章需保留本站地址!

分享到:
打赏





休息一下~~


« 上一篇 下一篇 »

发表评论:

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

请先 登录 再评论,若不是会员请先 注册

您的IP地址是: