25
2025
02
19:03:01

告别复杂配置!轻松使用VLLM部署大模型

目录

  • 环境准备
  • 配置步骤
    • 一、配置 GPU 云服务器
    • 二、安装 conda
    • 三、显卡驱动安装
    • 四、vllm 安装
    • 五、大模型下载与运行
  • 客户端调用测试


环境准备

1. anaconda

2. python 环境

3. VLLM(注:只可运行在Linux系统中)

4. 云服务器或本地物理服务器;(本文以云服务器部署为例)


配置步骤


一、配置 GPU 云服务器

1.购买云服务器 GPU 计算型

根据实际需要选择

图片

等待实例初始化

图片

2.在本地电脑使用 ssh 连接服务器

这里我使用私钥进行连接

图片


二、安装 conda

  1. 在 Ubuntu 中下载对应版本安装


https://mirrors.tuna.tsinghua.edu.cn/anaconda/archive/Anaconda3-5.3.1-Linux-x86_64.sh
图片

  1. 下载成功后,执行安装文件





#赋予文件可执行权限chmod +x Anaconda3-5.3.1-Linux-x86_64.sh#执行安装脚本./Anaconda3-5.3.1-Linux-x86_64.sh

根据提示输入 yes 敲回车,等待安装完成即可,下图为安装成功截图。注:重启终端或打开新终端生效

图片


三、显卡驱动安装

1.导入官方源



add-apt-repository ppa:graphics-drivers/ppaapt update

2.手动或自动安装驱动程序









#安装驱动检查工具apt install ubuntu-drivers-common alsa-utils -y#自动检查安装与当前显卡兼容的驱动程序ubuntu-drivers autoinstall#列出可用驱动ubuntu-drivers devices#手动安装apt install nvidia-driver-470

3.安装完成后,输入以下命令查看当前显卡


nvidia-smi
图片

4.安装 cuda

选择合适自己的版本进行下载


https://developer.nvidia.com/cuda-toolkit-archive

我这里安装 cuda12.6 ,与上一步中显示的版本号保持一致。如安装版本与本文一致,可按以下顺序执行安装。










#默认为root用户,如不是root用户请加sudo
wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2404/x86_64/cuda-ubuntu2404.pinmv cuda-ubuntu2404.pin /etc/apt/preferences.d/cuda-repository-pin-600wget https://developer.download.nvidia.com/compute/cuda/12.6.0/local_installers/cuda-repo-ubuntu2404-12-6-local_12.6.0-560.28.03-1_amd64.debdpkg -i cuda-repo-ubuntu2404-12-6-local_12.6.0-560.28.03-1_amd64.debcp /var/cuda-repo-ubuntu2404-12-6-local/cuda-*-keyring.gpg /usr/share/keyrings/apt-get updateapt-get -y install cuda-toolkit-12-6

5.查看 cuda 版本,出现下图则表示安装成功









#配置环境变量vi ~/.bashrc   //在文件末尾添加以下内容export PATH=/usr/local/cuda-12.6/bin:$PATHexport LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH#使配置立即生效source ~/.bashrc#查看版本nvcc -V
图片


四、vllm 安装

  1. 新创建一个 python3.10 的环境





#创建一个名称为vllm的python环境conda create -n vllm python=3.10 -y#激活conda activate vllm
图片

  1. 进入终端,可以看到当前 python 版本为 3.10

图片

3.更新 pip,保证其为最新版



#安装前更新pippython -m pip install --upgrade pip -i https://mirrors.aliyun.com/pypi/simple
图片

4.安装 vllm


python -m pip install vllm -i https://mirrors.aliyun.com/pypi/simple

安装成功如下图所示:

图片


五、大模型下载与运行


1) 手动下载模型文件

  1. 访问https://huggingface.co/modelshttps://modelscope.cn/models 官网,选择你需要下载的模型

将以下文件,全部下载到同一目录中

图片
(1)运行模型




#设置GPU并行数为2vllm serve /mnt/models --tensor-parallel-size 2 --max-model-len 32768 --enforce-eager --gpu-memory-utilization 0.9#不设置GPU并行数,使用默认值。设置api-key为test@123vllm serve  /mnt/models/ --max-model-len 32768 --enforce-eager --gpu-memory-utilization 0.9 --api-key test@123

更多参数可参考官网手册:


https://vllm.hyper.ai/docs/models/engine-arguments#命名参数
(2)运行成功后,会给出 api 调用地址,如服务器为云端则需要在安全组中放行对应端口
图片


2) 通过下载工具下载

1.安装下载工具


python -m pip install modelscope -i https://mirrors.aliyun.com/pypi/simple
图片

2.下载模型到指定目录内,这里以DeepSeek-r1-1.5B为例


modelscope download --model deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B --local_dir /mnt/models2
图片

PS:启动方式与上面的一致,这里不再赘述。


客户端调用测试

1.安全组内放行服务端口

这里为云服务器部署,需要先放行 8000 端口.

图片

2.在电脑打开客户端工具cherry studio=>新添加一个接口=>提供商类型选择 OpenAI

图片

填写API地址和密钥,API地址填写为http://公网IP:8000即可。

图片

回到对话界面,选择添加的模型,就可以正常进行对话了

图片


PS:部署时请根据实际使用场景,配置必要的安全策略。




推荐本站淘宝优惠价购买喜欢的宝贝:

image.png

本文链接:https://hqyman.cn/post/9157.html 非本站原创文章欢迎转载,原创文章需保留本站地址!

分享到:
打赏





休息一下~~


« 上一篇 下一篇 »

发表评论:

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

请先 登录 再评论,若不是会员请先 注册

您的IP地址是: