21
2025
03
01:14:09

Ollama与OpenWebUI的安装与使用

Ollama与OpenWebUI的安装与使用


1. 效果演示

演示地址http://192.168.2.34:3000/Ollama与OpenWebUI的安装与使用Ollama与OpenWebUI的安装与使用

2. 软硬件配置

系统Windows10
内存16G
磁盘50G
显卡1660TI(6G)
软件Docker

 

3. 安装Ollama

3.1 下载Ollama

Ollama官网下载Ollama安装包:https://ollama.com/

Ollama与OpenWebUI的安装与使用

3.2 安装Ollama

Windows下安装Ollama很简单,双击运行安装文件即可,此处不赘述。

打开终端,输入ollama,出现下图所示代表安装成功

Ollama与OpenWebUI的安装与使用

注意:

windows 的安装默认不支持修改程序安装目录,

默认安装后的目录:C:\Users\username\AppData\Local\Programs\Ollama

默认安装的模型目录:C:\Users\username\ .ollama

默认的配置文件目录:C:\Users\username\AppData\Local\Ollama

3.3 配置Ollama的模型路径和端口

由于Ollama的模型默认会在C盘用户文件夹下的.ollama/models文件夹中,可以配置环境变量OLLAMA_MODELS和OLLAMA_HOST,设置为指定的路径和端口:

Ollama与OpenWebUI的安装与使用

3.4 下载qwen2.5-coder 7b模型

从ollama官网首页右上角点击“Models”进入ollama官方提供的模型列表,我们可以从中选用合适的模型进行下载安装。以qwen2.5-coder 7b为例。

 

  1. 点击5-coder进入详情页。

  2. 选择7b参数的模型。

  3. 复制命令。

  4. 在命令行中粘贴命令,并执行。

  5. 等待模型下载完成,就可以在命令行窗口中对话了。

  6. 输入/bye退出对话模式。

Ollama与OpenWebUI的安装与使用Ollama与OpenWebUI的安装与使用Ollama与OpenWebUI的安装与使用

3.5 Ollama命令

启动Ollama服务ollama serve
2. 从模型文件创建模型ollama create
3. 显示模型信息ollama show
4. 运行模型ollama run 模型名称
5. 从注册表中拉去模型ollama pull 模型名称
6. 将模型推送到注册表ollama push
7. 列出模型ollama list
8. 复制模型ollama cp
9. 删除模型ollama rm 模型名称
10. 获取有关Ollama任何命令的帮助信息ollama help

3.6 API

Ollama同时提供与openai一样的兼容web接口,可以在命令行以外的地方使用对话功能和部署模型功能。https://github.com/ollama/ollama/blob/main/docs/api.md

可以使用python代码去连接到本地的大模型,也可以使用一些开源的项目去连接,下面介绍OpenWebUI的使用。

4. 安装OpenWebUI

4.1 安装docker

4.2 安装OpenWebUI

Docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

4.3 设置管理员账户

首次登录需要设置一个管理员账户

4.4 配置ollama

如果是本机安装的ollama,并且没有修改端口号的情况,OpenWebUI默认设置就可以连接到ollama,如果不是上述情况,需要设置一下。

Ollama与OpenWebUI的安装与使用

OpenWebUI也可以使用外部在线模型,如ChatGPT、ChatGLM、通义千问、月之暗面等等。

Ollama与OpenWebUI的安装与使用Ollama与OpenWebUI的安装与使用

5.安装SearXNG

5.1使用docker安装searxng

教程地址:https://tkmatrix.github.io/searxng/admin/installation-docker.html

主要命令:

$ mkdir my-instance
$ cd my-instance
$ export PORT=8080
$ docker pull searxng/searxng
$ docker run --rm \
            -d -p ${PORT}:8080 \
            -v "${PWD}/searxng:/etc/searxng" \
            -e "BASE_URL=http://localhost:$PORT/" \
            -e "INSTANCE_NAME=my-instance" \
            searxng/searxng

5.2 修改searxng配置

searxng默认接口返回的格式是html格式,需要增加json格式;

修改支持的搜索引擎,国内无法使用的google、duckduckgo等,需要添加对bing的支持。

修改完配置后需要重启docker容器

5.3 Openwebui配置searxng

  1. 在管理员设置界面开启联网搜索功能,并配置好searxng。

  2. 在对话之前需要开启联网搜索,默认不开启联网搜索。

  3. 如果能够搜索到内容,大模型会根据搜索结果进行回答。

  4. 很多时候searxng返回内容为空,出现回答结果不理想的情况。

Ollama与OpenWebUI的安装与使用

Ollama与OpenWebUI的安装与使用

Ollama与OpenWebUI的安装与使用

 




推荐本站淘宝优惠价购买喜欢的宝贝:

Ollama与OpenWebUI的安装与使用

本文链接:https://hqyman.cn/post/9550.html 非本站原创文章欢迎转载,原创文章需保留本站地址!

分享到:
打赏





休息一下~~


« 上一篇 下一篇 »

发表评论:

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

请先 登录 再评论,若不是会员请先 注册

您的IP地址是: