20
2025
03
Page Assist - 本地 AI 模型的 Web UI
https://www.chajianxw.com/product-tool/85997.html https://github.com/n4ze3m/page-assist https://chromewebstore.google.com/detail/page-assist-a-web-ui-for/jfgfiigpkhlkbnfnbobbkinehhfdhndo Page Assist - 本地 AI 模型的 Web UI1.5.02025-02-132.8万+点击下载最新版下载离线安装
作者:hqy | 分类:编程&AI | 浏览:44 | 评论:0
20
2025
03
Open-webUI后台运行开机自启脚本
ahk脚本:(通过miniconda本地部署openwebui); 启动 Anaconda Prompt 并执行命令LaunchAnaconda: ; 启动命令行窗口 Run, cmd.exe /k "C:\Users\用户名\miniconda3\Scripts\activate.bat && conda activate py311(虚拟环境名) && open-webui serve", , Min, PID&nb
作者:hqy | 分类:编程&AI | 浏览:53 | 评论:0
20
2025
03
open-webui安装步骤笔记
概述目前大模型爆火,蹭着这个热度,根据网上教程个人也部署一份个人知识库;整个应用包含大模型应用,WEB端应用;其中大模型应用一般都是部署一个推理框架(如ollama),WEB端应用开源的也比较多(如Langchain-chatchat,open-webui);本文记录open-webui的安装步骤,及运行脚本编写;(过程比较顺利,未出现失败情况);安装步骤环境信息Linux:Ubuntu 22.04.2 LTSPython版本管理:anaconda3(https://www.anaconda.c
作者:hqy | 分类:编程&AI | 浏览:43 | 评论:0
20
2025
03
从本地部署到企业级服务:十种主流LLM推理框架的技术介绍与对比
大语言模型(Large Language Models, LLMs)的部署是一项具有技术挑战性的工作。随着模型架构日益复杂,以及硬件需求不断提升,部署过程变得愈发复杂。业界已经发展出多种解决方案,使LLM的部署和扩展变得更加便捷。从适用于个人开发的轻量级本地部署工具,到面向企业级高性能生产环境的推理引擎,各类解决方案能够满足不同场景的需求。本文将深入探讨十种主流LLM服务引擎和工具,系统分析它们在不同应用场景下的技术特点和优势。无论是在消费级硬件上进行模型实验的研究人员,还是在生产环境中部署大规
作者:hqy | 分类:编程&AI | 浏览:39 | 评论:0
20
2025
03
centos部署open-webui的完整流程记录
《centos部署open-webui的完整流程记录》:本文主要介绍centos部署open-webui的完整流程,OpenWebUI是一个开源的Web用户界面工具,用于与本地或私有化部署的大语言...目录一、open-webui是什么?二、安装流程1.openssl升级2.python3.11安装3.SQLite安装升级4.pip 下载安装open-webui总结一、open-webui是什么?Open WebUI 是一个开源的、可自托管的 Web 用户界面工具,专为与本地或私有化部署的大语言
作者:hqy | 分类:编程&AI | 浏览:52 | 评论:0
20
2025
03
离线部署本地大模型 - 本地部署Ollama完整教程
大模型(Large Language Models)作为AI领域的颠覆性创新,凭借其在语言生成、理解及多任务适应上的卓越表现,迅速点燃了科技界的热情。 从阿尔法狗的胜利到GPT系列、包括国内的文心一言等的横空出世,大模型不仅展现了人工智能前所未有的创造力与洞察力,也预示着智能化转型的新纪元。 这些大模型都是往往部署于云端,人们在使用时只需要注册账号,支付费用就可以方便快捷的使用大模型,但是这也存在着一些问题:目前最先进的OpenAI的GPT系列模型,由于某些原因对国内用户并未开放。对于特殊行业企
作者:hqy | 分类:编程&AI | 浏览:36 | 评论:0
20
2025
03
ollama | 环境变量配置以及本地部署
引言随着deepseek的开源,大家都在争先恐后的往AI发展和研究。所以最近也开始陆续部署了各种框架,各种尝试,也踩过了很多坑。此篇文章主要讲ollama部署过程,都以经过验证。部署建议1、系统:优先选择win、其次ubuntu、最后mac和linux2、魔法:最好有为什么优先选择win,主要就是安装最简单,而且魔法环境配置容易。选择其他系统时,比如linux,有时候下载模型是很费劲的,需要掌握更多的底层网络知识,命令行安装代理较为麻烦。如果有软路由是最好的,那么所有系统下,安装或拉模型都没有什
作者:hqy | 分类:编程&AI | 浏览:51 | 评论:0
20
2025
03
Ollama 使用指南:Linux、Windows 和 macOS
Ollama 是一个开源平台,用于部署和运行大型语言模型。它提供了一种在本地环境中运行语言模型的能力,使得用户可以在本地安全地与这些模型进行交互,而无需将数据发送到云端。安装 Ollama确保您已经安装了 Ollama。如果还没有安装,可以通过以下命令安装:代码语言:javascript代码运行次数:0运行AI代码解释# Linux, macOS
curl -s https://install.ollama.ai | sh
#&
作者:hqy | 分类:编程&AI | 浏览:39 | 评论:0
20
2025
03
基于ollama的常见变量设置
基于ollama的常见变量设置全局命令设置现象:无法直接使用命令ollama问题显示如下:[root@localhost LLM]# ollama-bash: ollama: command not found解决方法一:第一步:输入如下命令:[root@localhost ~]# ln -s /usr/bin/Ollama/bin/ollama /usr/local/bin/ollama第二步:我们在任意一个位置进行命令验证:[root@localhost ~]# ollamaUsage:ol
作者:hqy | 分类:编程&AI | 浏览:40 | 评论:0
20
2025
03
查看ollama的详细的环境变量的配置
要查看 Ollama 的详细环境变量配置,可以通过以下几种方式:1. 检查环境变量你可以直接查看系统上与 Ollama 相关的环境变量。可以通过以下命令查看所有的环境变量:printenv这将列出所有当前的环境变量。如果你只想查看与 Ollama 相关的变量,可以使用 grep 来筛选:printenv | grep OLLAMA这会列出所有包含 OLLAMA&nbs
作者:hqy | 分类:编程&AI | 浏览:39 | 评论:0
20
2025
03
Ollama系列---【ollama使用gpu运行大模型】
一、安装CudaToolkit使用控制台命令查看当前显卡驱动中的cuda版本nvidia-smi二、下载CudaToolkit注意:CudaToolkit版本要低于上面的显卡Cuda版本。Cuda各版本下载地址:CUDA Toolkit Archive | NVIDIA Developer下载好之后,一路下一步,一直默认即可。如果安装到了自定义的位置,记得加环境变量。这里我安装到了D盘,下面是我添加的环境变量。三、验证是否安装成功nvcc --version安装成功,如下图:四、设置O
作者:hqy | 分类:编程&AI | 浏览:45 | 评论:0
20
2025
03
在ubuntu24.04上安装Ollama并设置跨域访问
Ollama 是一个基于 Go 语言开发的简单易用的本地大模型运行框架。它同时支持Nvidia和AMD显卡,最主要的是国内下载模型的速度很快。我们在前几期文章中介绍的lobechat,oneapi等应用,可以方便的利用ollama构建本地大模型运行平台。接下来我们就介绍如何构建ollama的运行平台。设备构成:1、Nvidia P40两片,32G内存。2、ubuntu24.04操作系统。具体安装过程如下:一:安装Ollama1、准备环境#安装gcc和g++
sudo apt 
作者:hqy | 分类:编程&AI | 浏览:42 | 评论:0
20
2025
03
[Ubuntu]安装ollama操作记录
安装ollama操作记录 简介 Ollama 是一个致力于推动本地人工智能模型开发和应用的工具和平台,允许用户在本地运行、管理和调用各种 AI 模型。它的核心理念是提供一种无需依赖云计算环境的方式,让开发者和企业能够高效地使用 AI 模型,同时确保数据隐私和安全。  
作者:hqy | 分类:编程&AI | 浏览:37 | 评论:0
12
2025
03
#HarmonyOS NEXT体验官#【鸿蒙NEXT】苹果Mac x86的新的DevEco Studio没有模拟器了吗?
#HarmonyOS NEXT体验官#【鸿蒙NEXT】苹果Mac x86的新的DevEco Studio没有模拟器了吗? 前言:我们平时开发的过程当中,在没有真机设备的情况下,都是去官方下载配套的模拟器,把我们的项目run到模拟器中去做开发调式,比如查看UI层级,断点调式,查看打印日志信息之类的报错信息,以便于发现问题,修复对应问题,优化代码之类的,在鸿蒙开发当中,也是如此。1、Mac x86 没法安装模拟器由于当前鸿蒙更新版本比较频繁,基本每经过一两周必有一个DevEco Studi
作者:hqy | 分类:编程&AI | 浏览:66 | 评论:0
11
2025
03
最适合LLM推理的NVIDIA GPU全面指南
介绍大型语言模型(LLM)如GPT-4、BERT以及其他基于Transformer的模型已经革新人工智能领域。这些模型在训练和推理过程中需要大量的计算资源。选择合适的GPU进行LLM推理可以显著影响性能、成本效益和可扩展性。?? 本指南将帮助你选择最适合你需求的GPU,不论是为个人项目、研究环境还是大规模生产部署。?理解关键GPU规格在深入了解推荐列表之前,让我们简要概述一些关键规格,这些规格决定了GPU是否适合LLM推理:?️ CUDA核心:这是GPU的主要处理单元。更高的CUDA核心数通常意
作者:hqy | 分类:编程&AI | 浏览:58 | 评论:0
11
2025
03
boydfd大神:LLM生成代码后,如何一键合并到源代码中(FastApply技术研究)
LLM生成代码后,如何一键合并到源代码中(FastApply技术研究)背景在大语言模型越来越火的今天,越来越多的应用场景开始使用大语言模型来解决实际问题。而辅助编程可以算是大语言模型应用得最成功的场景之一了。早先的时候,更多使用的还是代码补全的能力,但是现在,各家产品都开始支持Chat和Agent的能力了。之前一直有个疑问,生成的代码明明只是片段,也没有一个很好的规则能直接定位到源文件的位置,甚至有些生成的代码和现有代码没有任何重叠的部分,那这些代码是怎么精准地合并到源代码中的呢?今天就带着大家
作者:hqy | 分类:编程&AI | 浏览:48 | 评论:0
10
2025
03
boydfd大神:为了改一行代码,我花了10多天时间,让性能提升了40多倍---Pascal架构GPU在vllm下的模型推理优化
为了改一行代码,我花了10多天时间,让性能提升了40多倍---Pascal架构GPU在vllm下的模型推理优化ChatGPT生成的文章摘要这篇博客记录了作者在家中使用Pascal显卡运行大型模型时遇到的挑战和解决方案。随着本地大型模型性能的提升,作者选择使用vllm库进行推理。然而,作者遇到了多个技术难题,需要自行编译vllm和PyTorch,以支持Pascal架构的显卡。编译过程中,作者深入研究了显卡不支持的问题,特别是在量化矩阵乘法计算中发现性能瓶颈。最终,解决了性能问题,让性能提升了43倍
作者:hqy | 分类:编程&AI | 浏览:55 | 评论:0
10
2025
03
大模型如何部署?
大模型如何部署?目前chatgbt如火如图,但是模型参数巨大,单卡H100都无法满足,请问大模型如何部署?目标是部署类似gbt 175b参数的模型到gpu上面。硬件选型AI 领域常用 GPU显卡性能应用场景价格T4适中AI 推理, 轻量级训练, 图形渲染7999(14G)4090非常高通用计算, 图形渲染, 高端游戏, 4K/8K 视频编辑14599(24G)A10适中图形渲染, 轻量级计算18999(24G)A6000适中图形渲染, 轻量级计算32999(48G)V100高深度学习训练/推理,
作者:hqy | 分类:编程&AI | 浏览:56 | 评论:0
10
2025
03
excel如何把数字自动转换成大写 ,例如 559.40转换成 零万零仟伍佰伍拾肆元零角零分
步骤:打开 VBA 编辑器(按 Alt + F11)。插入模块(点击 插入 -> 模块)。复制以下代码并粘贴到模块中:vba复制编辑Function NumToRMB(ByVal num As Double) As String
Dim Units As Variant, Digits As Variant
作者:hqy | 分类:编程&AI | 浏览:53 | 评论:0
10
2025
03
我与vLLM的2024:清华大佬的vLLM开发之路
作者:游凯超,清华软院博士研究生我与 vLLM 的缘分,还得从五年前的那个暑假说起。2019 年,我在UC Berkeley的RISELab跟随Michael Jordan教授进行暑期研修。某天,我偶然遇到一位新入学的博士生,厚着脸皮加了他的微信。当时的我怎么也不会想到,这一“社交冒险”会在五年后改变我的人生轨迹。时间快进到 2022 年年底,ChatGPT 横空出世。曾经和我一起玩泥巴的青苹果同学已经成为ChatGPT训练师,而我还在AI顶会与随机分配的审稿人展开“鸡同鸭讲”式的争论。顶会的内
作者:hqy | 分类:编程&AI | 浏览:67 | 评论:0