为公司省钱往往省不到自己身上

感觉本网站还不错的,请主动关闭浏览器的广告屏蔽功能再访问本站,谢谢支持。

20
2025
03

华为AP形态(FIT/FAT)切换

一、瘦(FIT)AP转胖(FAT)AP1、首先,需要准备TFTP软件(例如3CDaemon)设置FTP服务器,在TFTP设置中,修改上传/下载目录为存放AP软件的目录2、然后,在官网下载AP的相应版本软件注意:FIT模式需要下载和AC无线控制器同等大版本的软件版本(以本例为例,FitAP3010DN-V2_V200R010C00SPC600,大版本就是V200R010C)3、需要准备串口线,形态切换需要电脑的串口线和网线同时连接AP,串口线控制AP,网线传输软件包。使用超级终端连接AP:cons
20
2025
03

centos全局代理

在CentOS系统中,设置全局代理通常涉及到配置网络环境。这可以通过多种方式实现,例如使用environment variables、修改系统配置文件或使用图形界面工具。以下是几种常见的方法:方法1:使用环境变量你可以通过在用户的shell配置文件中设置环境变量来配置全局代理。例如,如果你使用的是bash,可以在~/.bashrc或~/.bash_profile文件中添加以下行:export http_proxy="http://proxy_address:port"expo
20
2025
03

Page Assist - 本地 AI 模型的 Web UI

https://www.chajianxw.com/product-tool/85997.html https://github.com/n4ze3m/page-assist https://chromewebstore.google.com/detail/page-assist-a-web-ui-for/jfgfiigpkhlkbnfnbobbkinehhfdhndo Page Assist - 本地 AI 模型的 Web UI1.5.02025-02-132.8万+点击下载最新版下载离线安装
20
2025
03

Open-webUI后台运行开机自启脚本

ahk脚本:(通过miniconda本地部署openwebui); 启动 Anaconda Prompt 并执行命令LaunchAnaconda:  ; 启动命令行窗口  Run, cmd.exe /k "C:\Users\用户名\miniconda3\Scripts\activate.bat && conda activate py311(虚拟环境名) && open-webui serve", , Min, PID&nb
20
2025
03

多多点金——青龙羊毛

菜鸡搬运工又上班了,多点淘金,老毛新撸。很多人早就在偷撸了,还有很多人不知道,写个教程给小白们看看!青龙薅毛之除夕专辑(一)毛毛介绍前段时间九章头条被一锅端了,秽土转生直接失效,这次带来个新毛,多点淘金,可以顶替之前的九章,一天三根叼毛。毛毛来源这次的毛主要考验大家的成语储备量(青龙,抓包,动手能力),玩过九章的玩这个应该都没问题。脚本添加为了照顾小白,脚本上传个人仓库,小白们自行拉取。脚本库有点问题,拉到的脚本不完整,两个解决办法:1.去脚本地址将脚本复制粘贴到你拉的脚本那里,覆盖掉拉到的脚本
20
2025
03

open-webui安装步骤笔记

概述目前大模型爆火,蹭着这个热度,根据网上教程个人也部署一份个人知识库;整个应用包含大模型应用,WEB端应用;其中大模型应用一般都是部署一个推理框架(如ollama),WEB端应用开源的也比较多(如Langchain-chatchat,open-webui);本文记录open-webui的安装步骤,及运行脚本编写;(过程比较顺利,未出现失败情况);安装步骤环境信息Linux:Ubuntu 22.04.2 LTSPython版本管理:anaconda3(https://www.anaconda.c
20
2025
03

从本地部署到企业级服务:十种主流LLM推理框架的技术介绍与对比

大语言模型(Large Language Models, LLMs)的部署是一项具有技术挑战性的工作。随着模型架构日益复杂,以及硬件需求不断提升,部署过程变得愈发复杂。业界已经发展出多种解决方案,使LLM的部署和扩展变得更加便捷。从适用于个人开发的轻量级本地部署工具,到面向企业级高性能生产环境的推理引擎,各类解决方案能够满足不同场景的需求。本文将深入探讨十种主流LLM服务引擎和工具,系统分析它们在不同应用场景下的技术特点和优势。无论是在消费级硬件上进行模型实验的研究人员,还是在生产环境中部署大规
20
2025
03

centos部署open-webui的完整流程记录

《centos部署open-webui的完整流程记录》:本文主要介绍centos部署open-webui的完整流程,OpenWebUI是一个开源的Web用户界面工具,用于与本地或私有化部署的大语言...目录一、open-webui是什么?二、安装流程1.openssl升级2.python3.11安装3.SQLite安装升级4.pip 下载安装open-webui总结一、open-webui是什么?Open WebUI 是一个开源的、可自托管的 Web 用户界面工具,专为与本地或私有化部署的大语言
20
2025
03

一招解决github访问慢!亲测有效......

githubhosts如何操作操作系统的 hosts 文件Windows 下在:C:/Windows/system32/drivers/etc/hosts苹果 Mac OSX 和 Ubuntu 等linux系一般在:/etc/hostshosts 文件内关于 github IP 地址的内容199.232.69.194 github.global.ssl.fastly.net 140.82.112.4 www.github.com 185.199.108.153 
20
2025
03

离线部署本地大模型 - 本地部署Ollama完整教程

大模型(Large Language Models)作为AI领域的颠覆性创新,凭借其在语言生成、理解及多任务适应上的卓越表现,迅速点燃了科技界的热情。 从阿尔法狗的胜利到GPT系列、包括国内的文心一言等的横空出世,大模型不仅展现了人工智能前所未有的创造力与洞察力,也预示着智能化转型的新纪元。 这些大模型都是往往部署于云端,人们在使用时只需要注册账号,支付费用就可以方便快捷的使用大模型,但是这也存在着一些问题:目前最先进的OpenAI的GPT系列模型,由于某些原因对国内用户并未开放。对于特殊行业企
20
2025
03

ollama | 环境变量配置以及本地部署

引言随着deepseek的开源,大家都在争先恐后的往AI发展和研究。所以最近也开始陆续部署了各种框架,各种尝试,也踩过了很多坑。此篇文章主要讲ollama部署过程,都以经过验证。部署建议1、系统:优先选择win、其次ubuntu、最后mac和linux2、魔法:最好有为什么优先选择win,主要就是安装最简单,而且魔法环境配置容易。选择其他系统时,比如linux,有时候下载模型是很费劲的,需要掌握更多的底层网络知识,命令行安装代理较为麻烦。如果有软路由是最好的,那么所有系统下,安装或拉模型都没有什
20
2025
03

Ollama 使用指南:Linux、Windows 和 macOS

Ollama 是一个开源平台,用于部署和运行大型语言模型。它提供了一种在本地环境中运行语言模型的能力,使得用户可以在本地安全地与这些模型进行交互,而无需将数据发送到云端。安装 Ollama确保您已经安装了 Ollama。如果还没有安装,可以通过以下命令安装:代码语言:javascript代码运行次数:0运行AI代码解释# Linux, macOS curl -s https://install.ollama.ai | sh #&
20
2025
03

基于ollama的常见变量设置

基于ollama的常见变量设置全局命令设置现象:无法直接使用命令ollama问题显示如下:[root@localhost LLM]# ollama-bash: ollama: command not found解决方法一:第一步:输入如下命令:[root@localhost ~]# ln -s /usr/bin/Ollama/bin/ollama /usr/local/bin/ollama第二步:我们在任意一个位置进行命令验证:[root@localhost ~]# ollamaUsage:ol
20
2025
03

查看ollama的详细的环境变量的配置

要查看 Ollama 的详细环境变量配置,可以通过以下几种方式:1. 检查环境变量你可以直接查看系统上与 Ollama 相关的环境变量。可以通过以下命令查看所有的环境变量:printenv这将列出所有当前的环境变量。如果你只想查看与 Ollama 相关的变量,可以使用 grep 来筛选:printenv | grep OLLAMA这会列出所有包含 OLLAMA&nbs
20
2025
03

Ollama系列---【ollama使用gpu运行大模型】

一、安装CudaToolkit使用控制台命令查看当前显卡驱动中的cuda版本nvidia-smi二、下载CudaToolkit注意:CudaToolkit版本要低于上面的显卡Cuda版本。Cuda各版本下载地址:CUDA Toolkit Archive | NVIDIA Developer下载好之后,一路下一步,一直默认即可。如果安装到了自定义的位置,记得加环境变量。这里我安装到了D盘,下面是我添加的环境变量。三、验证是否安装成功nvcc --version安装成功,如下图:四、设置O
20
2025
03

跨平台日历同步:使用 CalDAV 和 Radicale 打造个人日历云服务

在我看来,"时间管理"可以分为两个核心部分,分别是:日程管理任务管理日程管理 主要涉及到那些有计划的事件,例如会议、各类行程、直播、家庭活动等。这类事件通常是提前规划好的,并且有明确的开始和结束时间。虽然偶尔也会遇到一些不确定因素,如改期或者超时等。但在大多数情况下,我们仍然能够清楚地知道在某个时间段需要完成什么任务,而且这些时间节点通常是无法更改的。在后续安排其他事情的时候,需要尽量避开这些时间段,以免冲突。任务管理 则主要是一系列的待办事项,这些事情有优先级,有目标,有
20
2025
03

ubuntu24.04 安装p100显卡驱动

在 Ubuntu 24.04 上安装 NVIDIA P100 显卡驱动,你可以通过以下步骤进行操作。请注意,截至我所知的信息更新时间(2023年4月),Ubuntu 24.04 实际上并不存在,我假定你是指 Ubuntu 22.04。如果你确实在使用 Ubuntu 22.04 或类似的较新版本,以下步骤同样适用,因为安装驱动的方法通常不会因版本号而有太大差异。1. 检查系统信息首先,确保你的系统已经安装了所有必要的软件:sudo apt updatesudo apt upgrade2. 禁用 N
20
2025
03

在 Ubuntu 上安装 `.deb` 软件包有几种方法

在 Ubuntu 上安装 .deb 软件包有几种方法,可以使用命令行工具,也可以通过图形界面进行安装。以下是几种常见的安装方法:方法 1:使用 dpkg 命令安装 .deb 包打开终端。使用 dpkg 命令安装 .deb 包:sudo dpkg -i /path/to/package.deb将 /path/to/package.deb 替换为&nb
20
2025
03

Ubuntu驱动安装,一发入魂

前言闲着没事,折腾了个双系统,卡在显卡驱动安装,最后参考官方教程,一发入魂。原版教程是英文版 [1],本文将相关内容简单翻译,以方便大家使用。官方共列出三种安装方法,方法一、二为自动安装,方法三为手动安装;推荐使用第一种方法,简单且高效,第三种方法过于复杂,不推荐。这里不得不吐槽下,有很多教程将第二种方法和第三种方法糅合,纯属误人子弟!方法一:基于官方库的自动安装步骤一:使用命令 ubuntu-drivers devices,确定显卡型号和推荐的驱动版本,从输出信息可知,目前的显卡型号为GeFo
20
2025
03

Ubuntu18.04中安装cuda的记录

Ubuntu18.04中安装cuda的记录一.参考:https://blog.csdn.net/QLULIBIN/article/details/78714596https://www.jianshu.com/p/00c37b09f0f3二.安装过程1、检查自己的电脑环境是否具备安装CUDA的条件1) 验证自己的电脑是否有一个可以支持CUDA的GPU你可以电脑的配置信息中找到显卡的具体型号,如果你是双系统,在Windows下的设备管理器中也可以查到显卡的详细信息;你也可以在ubuntu的终端中输

您的IP地址是: