Ollama + Open WebUI:在 Windows、Linux 或 macOS 上本地运行 LLM 的方法(无需 Docker)

Ollama

预计阅读时间: 5 分钟

简介

本指南将向您展示如何在 Windows、Linux 或 macOS 上本地运行大型语言模型(LLMs),无需使用 Docker。Ollama 提供本地模型推理,Open WebUI 是一个简化与这些模型交互的用户界面。体验类似于使用 ChatGPT、Google Gemini 或 Claude AI 等界面。

Open WebUI 首页

为什么不用 Docker 运行 Open WebUI?

无需 Docker 运行 Open WebUI 可以更高效地利用您的计算机资源。在没有容器化环境限制的情况下,所有可用的系统内存、CPU 功率和存储都可以完全用于运行应用程序。这在处理资源密集型模型时尤为重要,每一份性能都至关重要。

例如,如果您使用 Open WebUI 与大型语言模型交互,本地执行可以实现更快的处理时间和更流畅的性能,因为没有 Docker 管理容器的开销。本地运行还可以带来以下优势:

  1. 更简单的设置: 避免了设置和管理 Docker 容器的复杂性,对喜欢更直接安装的用户特别有帮助。
  2. 性能改进: 没有 Docker 的虚拟化,系统资源的直接连接可以带来更好的应用程序性能。
  3. 直接访问系统资源: 您可以直接控制文件路径、设置和系统配置,这使得故障排除和定制更加容易。

先决条件

在开始之前,请确保您的系统已安装以下内容:

  • Python: 运行 Open WebUI 所需。

请确保您使用的是 Python 3.11.X。例如,版本 3.11.6 运行良好。最新版本 Python 3.12.7 与当前版本的 Open WebUI 不兼容。

您可以在 这里 下载 Python。请确保选择适合您操作系统的版本。Python 是一种广泛用于 AI 和机器学习的多功能编程语言,包括大型语言模型 (LLMs) 的开发和运行。如果您希望提升这方面的技能,请务必查看我们的 Python 闪卡,以快速高效地学习。

安装 Ollama

  1. 访问 Ollama 下载页面
  2. 选择您的平台(Windows、Linux 或 macOS)并下载相应的版本。
  3. 按照您平台的标准安装流程安装 Ollama。

安装和运行 Open WebUI

您可以使用 Python 的包管理器 pip 来安装 Open WebUI。按照以下步骤操作:

  1. 打开终端并运行以下命令以安装 Open WebUI:

    pip install open-webui
  • 安装完成后,通过运行以下命令将 pip 更新到最新版本:

    python.exe -m pip install --upgrade pip
  • 安装完成后,使用以下命令启动 Open WebUI 服务器:

    open-webui serve
  • 成功启动 Open WebUI 后,您可以在浏览器中访问:http://localhost:8080。

  • 此外,如果您愿意,可以通过直接从 GitHub 克隆项目来安装 Open WebUI。有关更多详细信息,请参阅本指南末尾的章节。

    配置 Ollama 并下载语言模型

    默认情况下,Ollama 为您的系统设置以下路径以存储语言模型 (LLMs):

    • macOS: ~/.ollama/models
    • Linux: /usr/share/ollama/.ollama/models
    • Windows: C:\Users\%username%\.ollama\models

    如果需要,您可以更改此路径。例如,在 Windows 上使用以下命令:

    setx OLLAMA_MODELS "D:\ollama_models"

    在 macOS 上设置环境变量

    如果您以 macOS 应用程序形式运行 Ollama,应使用 launchctl 设置环境变量。使用以下命令设置变量:

    launchctl setenv OLLAMA_MODELS "/new/path/to/models"

    设置变量后,重新启动 Ollama 应用程序以使更改生效。

    在 Linux 上设置环境变量

    对于以 systemd 服务形式运行 Ollama 的 Linux 用户,可以使用 systemctl 设置环境变量。操作方法如下:

    1. 通过运行以下命令打开服务配置:

      sudo systemctl edit ollama.service
    2. 在 [Service] 部分下添加以下行:

      Environment="OLLAMA_MODELS=/new/path/to/models"
    3. 保存文件,然后重新加载 systemd 并重新启动服务:

      sudo systemctl daemon-reload
      sudo systemctl restart ollama

    在 Ollama 中下载和运行语言模型

    要在 Ollama 中下载和运行语言模型,请在终端中使用以下命令。这些命令将在模型尚未安装时自动下载:

    • 下载并运行 Meta (Facebook) 提供的 LLaMA 3.1 模型:

      ollama run llama3.1
    • 下载并运行 Google 提供的 Gemma 2 模型:

      ollama run gemma2

    使用 Open WebUI

    Open WebUI 运行后,您可以通过 http://localhost:8080 访问。在访问此地址后,系统将提示您登录或注册。要创建新帐户,请选择“注册”选项。此帐户仅在本机创建,系统上的其他用户无法访问您的数据。

    Open WebUI 登录页面
    Open WebUI 登录页面

    如果您之前启动了 Open WebUI,但通过 Ollama 下载的模型未出现在列表中,请刷新页面以更新可用模型。Open WebUI 管理的所有数据都存储在本地设备上,确保您的模型和交互数据的隐私和控制。

    通过 Git 安装 Open WebUI

    如果您想通过从 GitHub 克隆项目并手动管理来安装 Open WebUI,请按照以下步骤操作:

    先决条件:

    • Git: 确保您的系统已安装 Git。您可以在 此处 下载。
    • Anaconda: 推荐使用 Anaconda 来管理您的 Python 环境。您可以在 此处 下载并安装。

    安装说明:

    适用于 Linux/macOS:

    1. 打开终端并导航到要克隆存储库的目录。

    2. 使用 Git 克隆 Open WebUI 存储库:

      git clone https://github.com/open-webui/open-webui.git
    3. 切换到项目目录:

      cd open-webui/
    4. 复制 .env 文件:

      cp -RPp .env.example .env
    5. 使用 Node.js 构建前端:

      npm install
      npm run build
    6. 进入 backend 目录:

      cd ./backend
    7. (可选)创建并激活 Conda 环境:

      conda create --name open-webui-env python=3.11
      conda activate open-webui-env
    8. 安装 Python 依赖项:

      pip install -r requirements.txt -U
    9. 启动应用程序:

      bash start.sh

    适用于 Windows:

    1. 打开终端并导航到要克隆存储库的目录。

    2. 使用 Git 克隆 Open WebUI 存储库:

      git clone https://github.com/open-webui/open-webui.git
    3. 切换到项目目录:

      cd open-webui
    4. 复制 .env 文件:

      copy .env.example .env
    5. 使用 Node.js 构建前端:

      npm install
      npm run build
    6. 进入 backend 目录:

      cd .\backend
    7. (可选)创建并激活 Conda 环境:

      conda create --name open-webui-env python=3.11
      conda activate open-webui-env
    8. 安装 Python 依赖项:

      pip install -r requirements.txt -U
    9. 启动应用程序:

      start_windows.bat

    Ollama + Open WebUI 总结

    通过遵循本指南,您应该可以在本地成功运行 Ollama 和 Open WebUI(无需 Docker)。如果在此过程中遇到任何错误或困难,请随时发表评论,我将尽力为您提供帮助。