为公司省钱往往省不到自己身上

感觉本网站还不错的,请主动关闭浏览器的广告屏蔽功能再访问本站,谢谢支持。

25
2025
02

本地部署deepseek大模型必备工具:Ollama与三大竞品对比

在人工智能和大型语言模型(LLMs)领域,Ollama作为一款专注于简化大型语言模型在本地部署和运行的开源框架,受到了广泛关注。然而,Ollama并非唯一的选择,市场上还有许多其他同类型的工具,为开发者提供了多样化的选项。本文将盘点与Ollama同类型的大模型框架工具,帮助用户更好地了解这一领域的技术生态。一、Ollama框架简介Ollama是一个专注于简化大型语言模型(LLM)在本地部署和运行的开源框架。它支持多种大型语言模型,如Llama 2、Code Llama、Mistral、Gemma
25
2025
02

Ollma和vLLM简单对比

Ollma和vLLM简单对比AI应用开发中最常见两个大模型推理框架Ollama和vLLM. 在应用开发过程中,开发者通常会从多方面进行比较来选定适合的推理框架,尤其是在对接本地大模型时,考虑因素包括本地资源配置,本地安全性要求,成本计算,响应要求等多个方面。下面针对这两个常见框架,做一个简要的对比:Ollama1. 说明:Ollama是一个开源的大模型服务工具,可以让你在不写代码的情况下,在本地通过命令运行需要的大模型。Ollama会根据用户的资源配置,自动选择GPU或CPU运行,运行速度取决于
25
2025
02

vLLM框架:认识大模型推理框架

       这两年是大模型盛行的黄金时代,各大优秀的大模型诸如GPT、LLM、QWen、Deepseek等层出不穷,不断刷新我们的认知;但是大模型都有一个共同的特点,都拥有非常惊人的参数量,小的都有上十亿的参数,大的更是可以有几千亿的参数,这么大的参数量就会带来一个新的问题,就是推理效率不如传统的深度学习模型,再有就是目前的大模型基本上都是基于transformer进行开发的,最大限制上下文token数会导致模型在显存的利用率上会有很大的缺陷,基于此,专
25
2025
02

vLLM框架:使用大模型推理框架

       vLLM 专为高效部署大规模语言模型设计,尤其适合高并发推理场景,关于对vLLM的介绍请看这篇博文。以下从 安装配置、基础推理、高级功能、服务化部署 到 多模态扩展 逐步讲解。 1. 环境安装与配置1.1 硬件要求GPU: 支持 CUDA 11.8 及以上(推荐 NVIDIA A100/H100,RTX 4090 等消费级卡需注意显存限制)显存: 至少 20GB(运行 7B 模型),推荐 40
25
2025
02

联想服务器组件PCIe 转接卡

https://pubs.lenovo.com/sr860/zh-CN/pcie_riser_cardPCIe 转接卡按以下信息查找可选 PCIe 转接卡上的接口。x8/x8/x8 PCIe FH 转接卡组合件图 1. x8/x8/x8 PCIe FH 转接卡组合件表 1. x8/x8/x8 PCIe FH 转接卡组合件的组件1 PCIe 全高型转接卡架3 PCI Express 3.0 x8(插槽 6)2 PCI Express 3.0 x8(
25
2025
02

SR630或者SR650资料上面提了两个技术:1.AnyBay, 2.ML2能详细说说这两个技术的原理和功能吗?

anybay是指支持新的u.2 nvme ssd的插槽,同时兼容sas sata。ML2 适配器只能安装在ML2 插槽3 中,x8 ML2 适配器安装在x8 ML2 插槽中,x16 ML2 适配器安装在x16。
25
2025
02

大模型框架:vLLM

大模型框架:vLLM目录一、vLLM 介绍二、安装 vLLM2.1 使用 GPU 进行安装2.2 使用CPU进行安装2.3 相关配置三、使用 vLLM3.1 离线推理3.2 适配OpenAI-API的API服务一、vLLM 介绍        vLLM是伯克利大学LMSYS组织开源的大语言模型高速推理框架。它利用了全新的注意力算法「PagedAttention」,提供易用、快速、便宜的LLM服务。二、安装
25
2025
02

深入了解 GPU 互联技术——NVLINK

随着人工智能和图形处理需求的不断增长,多 GPU 并行计算已成为一种趋势。对于多 GPU 系统而言,一个关键的挑战是如何实现 GPU 之间的高速数据传输和协同工作。然而,传统的 PCIe 总线由于带宽限制和延迟问题,已无法满足 GPU 之间通信的需求。为了解决这个问题,NVIDIA 于 2018 年推出了 NVLINK,以提高 GPU 之间的通信效率。了解 NVLINKNVLINK 是一种专门设计用于连接 NVIDIA GPU 的高速互联技术。它允许 GPU 之间以点对点方式进行通信,绕过传统的
25
2025
02

NVIDIA Tesla P100 世界首款 AI 超级计算数据中心 GPU

https://www.nvidia.cn/data-center/tesla-p100/ NVIDIA Tesla P100世界首款 AI 超级计算数据中心 GPU超强计算能力助力现代数据中心当今的数据中心有赖于大量互连的通用计算节点,这限制了高性能计算 (HPC) 和超大规模工作负载。NVIDIA® Tesla® P100 运用 NVIDIA Pascal™ GPU 架构提供统一的平台,以加速 HPC 和 AI 发展,大幅提升吞吐量,同时降低成本。应用
25
2025
02

【AI系统】NVLink 原理剖析

随着 AI 技术的飞速发展,大模型的参数量已经从亿级跃升至万亿级,这一变化不仅标志着 AI 的显著提升,也对支持这些庞大模型训练的底层硬件和网络架构提出了前所未有的挑战。为了有效地训练这些复杂的模型,需要依赖于大规模的 GPU 服务器集群,它们通过高速网络相互连接,以便进行快速、高效的数据交换。但是,即便是最先进的 GPU 也可能因为网络瓶颈而无法充分发挥其计算潜力,导致整个算力集群的性能大打折扣。这一现象凸显了在构建大规模 GPU 集群时,仅仅增加 GPU 数量并不能线性增加集群的总体算力。相
25
2025
02

FreePBX-17 仍然通过ISO镜像安装支持

FreePBX是目前世界上使用最多的开源IPPBX电话系统。FreePBX项目维护的一举一动导致很多的用户关注。去年FreePBX官方宣布freepbx17不再对FreePBX开源项目提供ISO镜像安装支持,用户可以通过脚本进行安装。但是,通过去年一年的用户反馈,发现很多用户仍然linux基本技能,仍然依赖于ISO镜像安装。为了更好服务用户,除了脚本安装以外,官方宣布将再次提供FreePBX 17的镜像安装方式,以后用户可以下载安装镜像,就像过去版本的安装方式一样进行镜像安装。不久官方将通过具体
24
2025
02

采购入库单的收料组织选择为空如何处理

[操作步骤]1、检查需要选取的组织是否已经审核完成;     首先(系统管理员)登录,在[系统管理]-[组织机构]中查看该组织的数据状态是否为已审核,只有已审核的组织才能进行选取;2、检查需要选取的组织的[业务组织职能];     双击打开该组织,查看业务组织中是否勾选[库存职能],只有勾选 [库存职能]  ,才能在出入库单据上选择到该组织。3、需要使用检查组织有无启用库存管理并结束初始化4、需要登录administrator
24
2025
02

轻解读AI算力要求 英伟达特斯拉P100双显卡实测

买了俩特斯拉,不过不是开的那个,是算的那个。 没错,开的那个和算的那个都叫tesla,算的那个是英伟达家的,不少人都没听过。但是他们都用一样的名字,这个名字很多科技公司都喜欢,这个名字的故事背后还有段野史,说的是大神特斯拉、爱迪生、摩根大通三个男人一生相爱相杀的三角关系,有兴趣可以搜索一下。大家好,这里是极客买,这一期我们买了两张英伟达计算卡特斯拉P100-16G回来玩玩。先介绍一下特斯拉计算卡,这个是英伟达用于科学计算解决方案的GPU,基本都是没有显示输出接口的,纯粹用来做计算,相对普通的RT
24
2025
02

单卡 AI画图炼丹性价比之王,超大HBM2显存【Mizuiro-Aqua】

之前我曾经推荐过英伟达的Tesla M40计算卡,当时我说了,它唯一的卖点就是大显存,24GB显存可以出大图(虽然原版SD直出高分辨率图容易出鬼图,这方面还是建议用SDXL),其他方面这张卡都很废,算力就是现在的中端游戏卡水平,架构也是老旧的Maxwell,28nm功耗老高,尤其是AI,当年AI还没有这么流行,所以没有半精度加速,玩游戏性能也一般。就是这样一张只卖显存的卡,竟然还涨价了,原来24GB显存版的M40只要400,现在已经涨到600多了,这价格都能买RTX2060了,至少RTX2060
24
2025
02

「超详细」window安装配置英伟达Tesla p100教程

以下并非详尽的教程,而是我个人在实践中遇到的一些问题及其解决流程的总结。谈及装机,tesla p100显卡拥有一个8pin接口,其额定功率为600w。在安装前,请务必确认电源功率是否足够支持。另外,这款显卡需要双8pin供电,即需要一个转接线,以便连接两个8pin电源。安装时,将其插入PCIEX16卡槽,并固定好。启动电脑后,建议首次进入BIOS进行一些必要的检查和设置。部分主板的BIOS中可能包含'Above 4G'设置选项,请将其设置为True。此外,根据主板型号,您可能还需
24
2025
02

PVE下ubuntu22.04部署Stable Diffusion教程(使用NVIDIA P100显卡)

PVE下ubuntu22.04部署Stable Diffusion教程(使用NVIDIA P100显卡)可能有很多人和我有同样的想法,想把Stable Diffusion部署到Ubuntu等Linux服务器上,然后开放端口到外网,这样就可以在任何有网络的地方来进行访问,不必局限于在家的局域网内。下面咱们就用嘴简单的方式进行部署一下。一、下载Stable DiffusionB站大佬秋葉aaaki的Stable Diffusion版本,不但可以在Windows11上部署,在Ubuntu22.04上也
24
2025
02

我本运维,却用Cursor为公司开发了两套系统

我本运维,却用Cursor为公司开发了两套系统距离第一次给大家介绍这款编辑器,已经过去两年了,不知道大家有没有用起来呢?基于ChatGPT 的自动编程工具-cursor新体验cursor近期又发布了新功能,所以,再次推荐给大家使用。它不仅能帮你自动生成代码,还能像其他大模型一样,用于日常提问聊天。什么是Cursor?Cursor是一款基于AI的代码编辑器,内置了GPT-4、Claude等先进的大语言模型,能够通过自然语言指令生成、修改和优化代码。它基于VSCode开发,界面和操作方式与VSCod
24
2025
02

开源deepseek 自动生成PPT系统 前后端都开源

开源deepseek 自动生成PPT系统 前后端都开源deepseek 自动生成PPT系统  前后端都开源、可以私有化部署源代码http://www.gitpp.com/datadi/deepseek2pptdeepseek 自动生成PPT !!DeepSeek生成PPT,拢共分几步?用这个开源项目,辅助第一步:输入主题第二步:编辑大纲  【DeepSeek自动生成大纲】第三步:选择模板第四步:生成PPT可以私有化部署,赶紧给公司部署一套,董事长都亲自感谢你给公司部
24
2025
02

永久免费虚拟主机及永久免费域名可部署网站或应用分发服务

永久免费虚拟主机及永久免费域名可部署网站或应用分发服务开发了一款android客户端,但是安装包直接上服务器,下载会占用大量带宽,导致网页都无法正常访问,且速率还贼低,为了保证网页正常访问,最好搞新的服务器来做应用分发服务器,对个人用户显然是不划算的。一、领取免费虚拟主机发现蓝队云可以免费领取一台虚拟主机,不限带宽、不限CPU、不限连接数、空间1GB,用来做文件服务器简直完美!蓝队云领取地址: https://www.landui.com/project/freehost/注册实名后,
24
2025
02

MySQL为什么 不用 Docker部署?

MySQL为什么 不用 Docker部署?MySQL为什么不推荐使用Docker部署docker可以从远程仓库拉取镜像然后通过镜像快速的部署应用,非常的方便快捷,但是 , 为什么 一般公司的 Mysql 不用docker部署,而是部署在 物理机器上呢?解下来, 45岁老架构师尼恩, 给大家彻底的梳理一下, 让面试官口水直流。本文目录- 尼恩说在前面- MySQL为什么不推荐使用Docker部署- 第一大问题:DB有状态,不方便扩容 - 1.1 D

您的IP地址是: