25
2025
03
20:41:08

Win和Linux部署DeepSeek的比较简单的方法,而且采用的模型也是最小的,作为测试体验使用是没问题的。如果要在生产环境使用还是需要用到GPU来实现,下面我将以有一台带上GPU显卡的Linux机

Win电脑Linux服务器里面部署DeepSeek,他们都有安装模型的操作,而且这个操作会很费时间,那有没有一个方法可以提前下载好文件,然后只需要一个启动命令就可以实现呢?由于是脚本类,所以这里我们以Linux为例。

如果要提供自动部署脚本,我们首先就是要分析我们的安装过程都做了什么,然后根据部署过程的动作才能把部署内容封装到一起。
1.下载ollama
实际上这个操作就是下载了二进制文件,然后通过配置参数然后启动它。所以我们只需要一个很简单的命令就可以实现。
2.安装模型
虽然我们无法直接看到安装的逻辑是什么,但是我这里已经知道了它做了什么,它会把模型下载到对应的目录,该目录位于当前用户家目录下隐藏目录.ollama如果我使用root那就是/root/.ollama/目录。所以我们只需要把这个目录进行拷贝就可以。下面的目录实际上和Docker的镜像分层有点类似。
图片
3.文件组合打包
前面两个步骤我们搞清楚了这个DeepSeek的逻辑,我们把ollama和模型的文件放置到一起,然后进行打包压缩(该文件压缩后大概3.1G)。
图片
4.准备脚本
准备2个脚本,一个安装,一个启动(可复用上个小节的脚本,注意脚本路径)。
#安装脚本,这里用的是复制避免使用mv 用户找不到,
#!/bin/bash
tar xvf ollama.tar.gz
cd ollama 
cp -r .ollama /root/
我这里的内容放置在网盘里面,有需要可以去下载。
5.配置客户端




推荐本站淘宝优惠价购买喜欢的宝贝:

image.png

本文链接:https://hqyman.cn/post/9757.html 非本站原创文章欢迎转载,原创文章需保留本站地址!

分享到:
打赏





休息一下~~


« 上一篇 下一篇 »

发表评论:

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

请先 登录 再评论,若不是会员请先 注册

您的IP地址是: