使用Ollama和Open的Win电脑 Web UI构建本地大语言模型运行工具

文章目录。

    • 前言。
    • 1. 操作Olllama。
    • 2. 安装Open WebUI。
      • 2.1 Docker安装在Windows系统中。
      • 2.2 使用Docker部署Open WebUI。
    • 3. 安装内网穿透工具。
    • 4. 创建固定公网地址。

前言。

本文主要介绍如何在Windows系统中快速部署Ollama开源大语言模型运行工具,并安装Open WebUI结合cpolar内网穿透软件󿀌在公网环境中也可以访问您在本地内网上建造的llama2、大语言模型的运行环境,如千文qwen。

近年来,随着ChatGPT的兴起,大语言模型 LLM(Large Language Model)也成为人工智能AI领域的热门话题,很多大厂也推出了自己的大语言模型,并或多或少地开源了自己的大语言模型,今天就来分享一下最近的火󿼌而且对于小白来说,本地LLM工具Ollama的运行比较好。

在本地运行大语言模型有很多优点:

比如。在本地运行大语言模型有很多优点:例如。可以保护隐私。、。不会产生费用。、。可以忽略网络问题。、。

可品尝各种开源模型。

1712892863233

等等。

Ollama支持当前主要的开源模型, 比如llama2、千文qwen、mistral等。c;Windows可以在Windows中、Linux、部署MacOS系统。稳定性和便利性都很好c;让我们分享一下它在Windows系统上的安装和应用。

【视频教程】。

Windows系统电脑使用Ollama#43;OpenWebUI快速构建本地大语言模型体验智能AI聊天。

1. 操作Ollama。本文的安装环境为:Windows10专业版。

下载:

image-20240412112815418

ollama下载地址:https://ollama.com/download。点击Windows࿰下载页面c;然后单击下载按钮。

image-20240412113651226

安装:

image-20240412113757729

下载后,双击下载安装程序。

点击Install安装。

安装完成后没有提示󿀌我们打开终端,本文以Windows为基础 以Powershell为例c;您还可以使用其他:

image-20240412114551493

现在Ollama已经安装了,我们需要在终端中输入下面的命令来运行一个大语言模型进行测试c;以中文表现相对较好的千问为例,你也可以使用其他模型。ollama run qwen。ollama run qwen。

你可以看到�该系统正在下载qwen模型(并保存C盘,C:\Users<username>.ollama\models 如果你想改变默认路径󿀌设置可以通过。

image-20240412115240118

OLLAMA_MODELS。

image-20240412115431766

修改,然后重启终端󿀌重启ollama服务。)

setx OLLAMA_MODELS "D:\ollama_model"

模型下载后,我们可以使用࿱在终端中输入问题a;

到目前为止,在Windows本地部署ollama并运行qwen大语言模型已经完成。一键完成对新手体验大语言模型真的很友好。

2. 安装Open WebUI。

但是,我们现在只能在终端上使用,操作界面可能不像ChatGPT那么漂亮�如果可以使用web页面进行交互,更好的使用体验󿀌之前的聊天记录࿰也可以保留c;翻遍我们的查询。

针对这种情况,我们可以在Windows上部署Openn 为了实现像chatgpt这样的交互界面,WebUI项目。

本教程以Open为基础 以WebUI为例,它以前的名字叫 Formerly Ollama WebUI。可以理解为Webui࿰,一开始是专门适合Ollama的c;对于习惯了chatgpt的小伙伴来说,它的界面也更加相似。当然,您也可以选择其他WebUI,之后有机会也可以和大家分享。

如何在Windows系统中安装Open? WebUI:

2.1 Docker安装在Windows系统中。

55b168adb3b2487ebef5a56f9b5bfe16.png

首先,如果您以前没有安装过Docker࿰,如果您以前没有安装过c;安装以下三个步骤需要执行#xff1a;

fcc551d53f2a4d8a9261519deaae49ea.png

第一步:启动Hyper-v。

打开控制面板༌选择启用程序和功能页面或Windows功能。

勾选Hyper-V、点击确认虚拟机平台、Linux子系统。

然后,重启计算机。

第二步:安装WSL。

打开 powershell,启动命令窗口࿰作为管理员c;输入。
7803831a6fef8563132920692cf5bb5

wsl --update。

安装。

wsl --install。

image-20240412134453950

然后重新启动计算机。

29e8d9fd062d765b10f64c27dd14097

第三步:访问Docker官网下载。

image-20240412135009554

点击下载链接:https://docs.docker.com/desktop/install/windows-install/。

image-20240412135830591

选择Windows最新版本:

下载后,安装双击安装程序,如果是第一次安装,安装后,提示重启计算机,重启后,单击桌面上的Docker desktop图标#xff1a;选择不先注册直接登录即可。

image-20240412140749937

打开Docker desktop后,左下角的绿色running代表我们的成功:

2.2 使用Docker部署Open WebUI。

image-20240412143329625

在Open WebUIgithub页面 https://github.com/open-webui/open-webui 你可以看到�假设Ollama和Open WebUI在同一主机,使用下面显示的行命令可以在本地快速部署:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main。

image-20240412143603992

现在我们打开终端󿀌例如,powershell,然后输入docker󿀌回车。

image-20240412144132799

现在我们打开终端󿀌例如,powershell,然后输入docker󿀌回车。

image-20240412144401182

可以看到这个命令成功运行,说明docker安装成功。

image-20240412144744192

然后在docker中部署Open 复制WebUI命令后,粘贴到终端,回车。

image-20240412144927140

然后等待安装完成:如下图所示。

image-20240412145046113

安装完成后,在Docker Open可以在Desktop中看到 WebUI的web界面地址为:https://localhost:3000。

image-20240412145306289

image-20240412145337352

点击后,打开浏览器登录界面:

image-20240412145604350

点击sign up注册󿀌帐号,邮箱,记住密码,下次登录时,需要使用电子邮件和密码登录#xff1a;

然后点击createeater account可以创建帐户:然后在浏览器中使用类似chatgpt界面的Open WebUI!

点击右上角的设置,当前界面的语言可以修改为简体中文:然后点击保存即可。

点击上面选择模型旁边的加号+可以增加大模型,点击下拉按钮选择已安装的模型,接下来,你可以愉快地与ai聊天!

3. 安装内网穿透工具。到目前为止,本地Windows系统使用Docker部署Open,我们已经成功完成 WebUI与Ollama大模型工具交互!但是,如果你想出去࿰,c;Olllama也可以随时随地使用 Open WebUI,需要使用cpolar内网穿透工具实现公网访问!接下来,我们来介绍一下如何安装cpolar内网穿透,实现公网访问!以下是安装cpolar步骤:

img

cpolar官网地址: https://www.cpolar.com。

image-20240319175308664

点击进入cpolar官网,点击。

img

点击进入cpolar官网,点击。

免费使用。

注册一个帐户󿀌并下载最新版本的cpolar。

  • 登录成功后󿀌点击下载cpolar到本地安装(一路默认安装)本教程选择下载Windows版本。
  • 成功安装cpolar后访问浏览器上的http://localhost:9200,使用cpolar帐户登录,登录后即可看到cpolarar web 配置界面,在web结束 可以配置管理界面。
  • 下一步是配置 Open WebUI 公网地址,
  • 登录后,点击左侧仪表板的隧道管理-创建隧道,
  • 创建一个 ollama1 公网http地址隧道:

db922938915f169100c3099795edd0a

隧道名称:olllama1(可自定义命名󿀌注意不要与现有隧道名称重复)

image-20240412152551655

协议:选http。

image-20240412152651947

地址:3000 (本地访问地址)。

地址:3000 (本地访问地址)。

域名类型:免费选择随机域名。

区域:选择China Top。

隧道建成后,点击左侧状态-在线隧道列表,查看生成的公共网络访问地址,有两种访问方式,一种是http https:

使用上述任何公共网站地址,登录并访问手机或任何设备的浏览器,即可成功查看 Open WebUI 界面,这样一个可以远程访问的公共网站地址已经创建。使用cpolar的公共网络域名,您可以访问公共网络,而无需购买云服务器 Open WebUI !

image-20240412152906479

小结。

image-20240412152954731

如果我们需要长期远程访问Open WebUI,因为只是随机地址࿰创建了c;24小时内会发生变化。

image-20240412153114908

如果我们需要长期远程访问Open, WebUI,因为只是随机地址࿰创建了c;它将在24小时内发生变化。此外,其网站由随机字符生成,不易记住。如果你想把域名变成固定的二级子域名,我不想每次都重建隧道来访问Open WebUI,我们可以选择创建一个固定的公共网站地址来解决这个问题。

  • 4. 创建固定公网地址。
  • 接下来,我们将配置固定的HTTP端口地址,地址不会改变󿀌与他人分享方便,长期查看您部署的项目,服务器地址不需要每天重复修改。

配置固定http端口地址需要将cpolar升级到专业套餐或以上。登录cpolar官网,点击左侧预留,选择保留二级子域名󿀌设置二级子域名,点击保留,保留成功后保留的二次子域名。保留成功后,复制保留成功的二级子域名的名称:myollama,你也可以设置你喜欢的名字。

image-20240412153213518

回到Cpolarar登录 web UI管理界面,点击左侧仪表板的隧道管理-隧道列表,找到要配置的隧道:olllama1,单击右侧的编辑:

image-20240412153253106

隧道信息修改#xff0c;在隧道中配置成功的二级子域名。

image-20240412153508464
域名类型:选择二级子域名。

Sub Domain:填写成功保留的二级子域名:myollama。点击。更新。(注意,点击一次更新,无需重复提交)。更新完成后,打开在线隧道列表。此时,您可以看到公共网络地址发生了变化,地址名称也变成了固定的二级子域名域名:最后,我们使用固定的公网https地址进行访问,可以看到访问成功,设置这样一个固定永久的公网地址,可随时随地访问当地部署的公网环境 Open WebUI !以上是如何在Windows系统本地安装Ollama大模型工具,使用docker部署Open WebUI,本地LLM࿰结合cpolar内网穿透工具实现公网访问c;并配置固定的二级子域名公网地址,实现远程访问的全过程,感谢您的观看,欢迎留言交流任何问题。