11
2025
02
Linux查看显卡 GPU信息
1.Linux查看显卡信息:1.1查询显卡信息 lspci | grep -i vga前边的序号 “04:00.0″是显卡的代号ASPEED Technology, Inc. ASPEED Graphics Family 即为GPU型号1.2查看指定显卡的详细信息用以下指令:lspci -v -s 04:00.01.3使用nvidia GPU可以:lspci | grep -
作者:hqy | 分类:Linux | 浏览:230 | 评论:0
11
2025
02
Ubuntu Server 20.04安装NVIDIA驱动
Ubuntu安装NVIDIA驱动安装NVIDIA驱动apt命令安装安装包安装同时安装驱动和CUDA自动安装(推荐)准备操作禁用nouveau显卡驱动安装NVIDIA显卡驱动验证安装NVIDIA驱动准备操作确定系统识别到了显卡root@master:~# lspci | grep -i nvidia 03:00.0 3D controller: NVIDIA Corporation TU1
作者:hqy | 分类:Linux | 浏览:287 | 评论:0
11
2025
02
如何在 Linux 中添加路由(Linux route)
如何在 Linux 中添加路由(Linux route)本文翻译、删改自:How To Add Route on Linux – devconnected若觉得本译文中缺了什么东西,请自行参考原文,不再单独标出关于 Linux 路由管理的详细内容,可参阅:基于策略的路由 (Policy Based Routing)、 主路由表(rt_table)、内置路由表、ip route 输出详解、增删路由,路由优先级处理本教程中所有的命令都需要使用 root 执行。使用 ip 添加路由这是最简单
作者:hqy | 分类:Linux | 浏览:235 | 评论:0
11
2025
02
[轻松使用Bing搜索API实现智能搜索体验]
引言Bing Search API是一个强大的工具,允许开发者通过简单的API调用从全球网页、图像、视频和新闻中提取信息。本文将详细介绍如何使用Bing Search API,并结合LangChain库来增强搜索体验,同时提供代码示例和解决方案以应对常见的挑战。主要内容1. 设置Bing Search API要使用Bing Search API,首先需要在Azure上创建Bing Search v7服务,并获取订阅密钥。然后,使用LangChain库中的BingSearchAPIWrapper来
作者:hqy | 分类:SEO | 浏览:591 | 评论:0
11
2025
02
如何获取Microsoft API密钥实现bing搜索分步指南
在实现Bing搜索功能的过程中,获取Microsoft API密钥是至关重要的一步。Microsoft的API服务依赖于密钥来确保用户能够安全、高效地访问其强大的搜索功能。凭借其先进的技术和广泛的数据资源,Microsoft的Bing搜索API为用户带来了精准的搜索体验和丰富的信息获取途径。因此,获取Microsoft API密钥成为实现Bing搜索功能的首要任务。接下来,本文将详细指导你如何逐步获取这一密钥,帮助你顺利接入并使用Bing搜索API,同时还会简要提及一些在使用过程中可能需要注意的
作者:hqy | 分类:SEO | 浏览:518 | 评论:0
11
2025
02
使用SearXNG-搭建个人搜索引擎(附国内可用Docker镜像源)
介绍SearXNG是聚合了七十多种搜索服务的开源搜索工具。我们可以匿名浏览页面,不会被记录和追踪。作为开发者,SearXNG也提供了清晰的API接口以及完整的开发文档。部署我们可以很方便地使用Docker和Docker compose部署SearXNG。下面给出Docker部署SearXNG的步骤。拉取Docker部署代码工程:git clone https://github.com/searxng/searxng-docker.git拉取代码前需要安装git。这里的工程因为
作者:hqy | 分类:VPS | 浏览:1721 | 评论:0
11
2025
02
Ubuntu系统下部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由
在window下安装过 Ollama和OpenWebUI搭建本地的人工智能web项目(可以看我之前写的文章),无奈电脑硬件配置太低,用qwen32b就很卡,卡出PPT了,于是又找了一台机器安装linux系统,在linux系统下测试一下速度能否可以快一些。系统硬件介绍Ubuntu 22.04.4 LTSCPU: i5-10400F内存:32G硬盘: 512G SSD显卡: NVIDIA GeForce GTX 1060 6GB内网IP: 192.168.1.21下载 Ollama访问下载: htt
作者:hqy | 分类:编程&AI | 浏览:262 | 评论:0
11
2025
02
ollama+open-webui,本地部署自己的大模型
ollama+open-webui,本地部署自己的大模型版权目录一、效果预览二、部署ollama1.ollama说明2.安装流程2.1 windows系统2.1.1下载安装包2.1.2验证安装结果2.1.3设置模型文件保存地址2.1.4拉取大模型镜像2.2linux系统2.2.1下载并安装ollama2.2.2设置环境变量2.2.3拉取模型文件三、部署open-webui1.open-webui介绍2.安装流程2.1windows2.1.1下载源码2.1.2用pycharm新建一个虚拟环境?编辑
作者:hqy | 分类:编程&AI | 浏览:381 | 评论:0
11
2025
02
FileTypesMan – 管理系统文件关联
对于下载了一个 Zip 压缩包之后,运行它,老是跳出确认运行的对话框非常烦恼吧?本来是可以在资源管理器,工具-文件夹选项,文件类型选项卡里面修改的。update:Crend King 留言关于安全的那个,可以用组策略禁掉:用户设置 -> 管理模板 -> Windows 组件 -> 附件管理器 -> 中安全级文件类型列表 -> 启用,列表填 .exe。如果想同时禁用 msi,就写 .exe;.msi有了 FileTypesMan,上面的问题迎刃而解。只需如下
作者:hqy | 分类:技术文章 | 浏览:205 | 评论:0
11
2025
02
ollama配置允许外网访问
linux系统 ollama默认只能localhost访问 如果需要允许外网访问,需要修改环境变量 vi /etc/profile 在文件底部加入 export OLLAMA_HOST=0.0.0.0:11434 保存&nb
作者:hqy | 分类:编程&AI | 浏览:395 | 评论:0
11
2025
02
ollama搭建本地ai大模型并应用调用
1、下载ollama1)https://ollama.com 进入网址,点击download下载2)下载后直接安装即可。2、启动配置模型默认是启动cmd窗口直接输入1 ollama run llama3启动llama3大模型 或者启动千问大模型1 ollama run qwen2启动输入你需要输入的问题即可 3、配置UI界面安装docker并部署web操作界面1 docker run&n
作者:hqy | 分类:编程&AI | 浏览:167 | 评论:0
11
2025
02
ollama 跨设备访问,轻松搞定远程调用
ollama 跨设备访问,轻松搞定远程调用用 Ollama API 调用本地大模型,通过 localhost:11434 就能搞定。但是,想在其他电脑上用 IP 地址调用,可能会存在问题。网上搜了搜,要么是 Linux 环境下的设置,要么是调整 windows 环境变量。st, Windows 下也能这么操作。ollama -h 看下帮助,然后 ollama serve -h,看下帮助 window 下面可以设置 OLLAMA_HOST
作者:hqy | 分类:编程&AI | 浏览:268 | 评论:0
11
2025
02
nssm(Non-Sucking Service Manager)是一个用于在Windows系统上管理服务的工具。
nssm(Non-Sucking Service Manager)是一个用于在Windows系统上管理服务的工具。它允许你将.exe文件和.bat文件转换为Windows服务,并提供了一些功能来管理这些服务。下载和安装首先,你需要从nssm官方网站(https://nssm.cc/download)下载最新版本的nssm。解压缩下载的文件到一个方便访问的目录中,比如D:\nssm-2.24。使用nssm进入到和你电脑相对应的win32和win64的文件夹下在路径上输入cmd然后回车然后输入nss
作者:hqy | 分类:Windows&windows server | 浏览:229 | 评论:0
11
2025
02
Ollama Windows
Ollama Windows欢迎使用 Ollama for Windows。不再需要 WSL!Ollama 现在作为原生 Windows 应用程序运行,支持 NVIDIA 和 AMD Radeon GPU。 安装 Ollama for Windows 后,Ollama 将在后台运行, ollama 命令行工具将在 cmd、powershell 或你最喜欢的终端应用程序中可用。和往常一样,Ollama API 将在 http:/
作者:hqy | 分类:编程&AI | 浏览:187 | 评论:0
11
2025
02
如何投喂本地部署的 DeepSeek-R1
搭建个人 AI 知识库:利用 DeepSeek-R1 和 AnythingLLM 实现高效管理随着人工智能技术的飞速发展,越来越多的人开始探索如何利用 AI 工具提升工作效率和个人知识管理水平。在众多开源AI模型中,DeepSeek-R1 凭借其强大的本地部署能力和多功能性脱颖而出。结合 AnythingLLM 这一功能强大的文档处理工具,我们可以轻松搭建一个属于自己的个性化 AI 知识管理系统。一、什么是 DeepSeek-R1?DeepSeek-R1 是一款基于深度学习的开源 AI 模型,默
作者:hqy | 分类:编程&AI | 浏览:199 | 评论:0
11
2025
02
安装ollama并更改模型下载位置
下载ollamaollama官网:https://ollama.com/https://ollama.com/安装并验证下载完ollama.exe文件之后,点击安装,安装过程较为简单,按照提示完成即可。安装完成之后打开cmd,在终端cmd输入以下指令进行验证:ollama --version模型运行启动ollama:在cmd终端输入以下指令ollama serve查看模型列表:在cmd终端输入以下指令ollama list下载并运行本地大模型在cmd终端输入以下指令
作者:hqy | 分类:编程&AI | 浏览:452 | 评论:0
11
2025
02
JumpServer开源堡垒机安装配置
JumpServer开源堡垒机安装与配置2.1、下载2.2、安装2.3、其他一、简介二、下载与安装一、简介JumpServer 堡垒机帮助企业以更安全的方式管控和登录各种类型的资产。支持官网地址:https://www.jumpserver.org/index.htmlJumpServer 采用分层架构,分别是负载层、接入层、核心层、数据层、存储层。JumpServer 应用架构图如下:二、下载与安装2.1、下载访问官网地址下载资源:https://community.fit2cloud.com
作者:hqy | 分类:Jumpserver | 浏览:210 | 评论:0
10
2025
02
史诗级羊毛警报!腾讯云掏出671B核弹级模型白送:DeepSeek-V3/R1无限免费调用
史诗级羊毛警报!腾讯云掏出671B核弹级模型白送:DeepSeek-V3/R1无限免费调用 前言官方的 deepseek 到目前为止都不是很稳定,经常出现 "服务器繁忙,请稍后再试。" 的情况。但是 deepseek-r1 作为一个开源的模型,只要你有足够的算力,就能够自己搭建一个对话平台,无限制使用。经过我的测试,我使用的是 MacBook Pro M1 max 32G + Ollama 只能够刚刚好跑得动 deepseek-r1:32b 的模
作者:hqy | 分类:编程&AI | 浏览:283 | 评论:0
10
2025
02
请停止在本地PC笔记本上部署DeepSeek,没卵用!
请停止在本地PC笔记本上部署DeepSeek,没卵用!最近,在自媒体账号上和社群里频繁刷到一类帖子——“如何在本地笔记本上部署DeepSeek?”“RTX 3060跑DeepSeek模型实战教程!”……作为一个一直关注AI和相关工具的半瓶水码农,我必须泼一盆冷水:醒醒!普通PC笔记本部署DeepSeek,除了满足你的“技术虚荣心”,真的毫无意义!为什么?往下看!1. 你的笔记本,根本扛不住AI算力的压榨你以为部署大模型就像安装Office一样简单?天真了!以DeepSeek这类千亿参数级的模型为
作者:hqy | 分类:编程&AI | 浏览:497 | 评论:0
10
2025
02
windows远程桌面打开rdp显卡调用
前情提要服务器在公网环境,带宽只有30M。远程桌面多开图形业务调试,设置RDP服务端使用GPU。压缩传输带宽避免造成卡顿。如果是内网,也可以用,还可以提供一个注册表键值,修改后提高fps帧率(公网不推荐)配置要点【菜单键+R】打开运行,输入gpedit.msc回车即可打开本地组策略编辑器。以下配置均在组策略中修改,请定位到【计算机配置】->【管理模板】->【Windows组件】->【远程桌面服务】->【远程桌面会话主机】具体配置如下:1、【连接】中,把【选择RDP传输协议
作者:hqy | 分类:Windows&windows server | 浏览:340 | 评论:0