Ollama + Open WebUI: विंडोज, लिनक्स या macOS पर लोकली LLMs चलाने का एक तरीका (बिना Docker के)

अनुमानित पढ़ने का समय: 7 मिनटों

परिचय

यह मार्गदर्शिका आपको Windows, Linux, या macOS पर Docker की आवश्यकता के बिना Ollama और Open WebUI का उपयोग करके बड़े भाषा मॉडल (LLM) को आसानी से सेटअप और स्थानीय रूप से चलाने का तरीका दिखाएगी। Ollama स्थानीय मॉडल इन्फेरेंस प्रदान करता है, और Open WebUI एक उपयोगकर्ता इंटरफ़ेस है जो इन मॉडलों के साथ इंटरैक्शन को सरल बनाता है। यह अनुभव ChatGPT, Google Gemini, या Claude AI जैसे इंटरफेस के उपयोग के समान है।

Open WebUI Homepage

Docker के बिना Open WebUI क्यों चलाएँ?

Docker के बिना Open WebUI चलाने से आप अपने कंप्यूटर के संसाधनों का अधिक कुशलता से उपयोग कर सकते हैं। कंटेनरीकृत वातावरण की सीमाओं के बिना, उपलब्ध सभी सिस्टम मेमोरी, CPU पावर और स्टोरेज को पूरी तरह से एप्लिकेशन चलाने के लिए समर्पित किया जा सकता है। यह विशेष रूप से तब महत्वपूर्ण होता है जब आप संसाधन-गहन मॉडलों के साथ काम कर रहे होते हैं, जहां हर प्रदर्शन बिंदु मायने रखता है।

उदाहरण के लिए, मान लें कि आप बड़े भाषा मॉडलों के साथ इंटरैक्ट करने के लिए Open WebUI का उपयोग कर रहे हैं। इस मामले में, देशी निष्पादन तेज़ प्रोसेसिंग समय और सुचारू प्रदर्शन का परिणाम हो सकता है, क्योंकि Docker कंटेनर के प्रबंधन से कोई ओवरहेड नहीं होता है। देशी रूप से चलाने से आपको अतिरिक्त लाभ भी मिलते हैं:

  1. सरल सेटअप: आप Docker कंटेनरों को सेटअप और प्रबंधित करने की जटिलता से बचते हैं, जो विशेष रूप से उन उपयोगकर्ताओं के लिए लाभकारी हो सकता है जो एक सीधा और प्रत्यक्ष इंस्टॉलेशन पसंद करते हैं।
  2. बेहतर प्रदर्शन: Docker के वर्चुअलाइजेशन के बिना, आपके सिस्टम के संसाधनों के साथ अधिक प्रत्यक्ष कनेक्शन होता है, जिससे एप्लिकेशन प्रदर्शन में सुधार हो सकता है।
  3. सिस्टम संसाधनों तक प्रत्यक्ष पहुँच: आपके पास फ़ाइल पथों, सेटिंग्स और सिस्टम कॉन्फ़िगरेशन पर प्रत्यक्ष नियंत्रण होता है, जो समस्या निवारण और कस्टमाइजेशन को आसान बनाता है।

पूर्व आवश्यकताएँ

शुरू करने से पहले, सुनिश्चित करें कि आपके सिस्टम पर निम्नलिखित इंस्टॉल हैं:

  • Python: Open WebUI चलाने के लिए आवश्यक है।

सुनिश्चित करें कि आप Python 3.11.X का उपयोग कर रहे हैं। उदाहरण के लिए, 3.11.6 संस्करण अच्छी तरह से काम करता है। Python का नवीनतम संस्करण, 3.12.7, वर्तमान संस्करण के साथ संगत नहीं है।

आप Python को यहाँ से डाउनलोड कर सकते हैं। अपने ऑपरेटिंग सिस्टम के लिए उपयुक्त संस्करण चुनना सुनिश्चित करें। Python एक बहुमुखी प्रोग्रामिंग भाषा है जिसका व्यापक रूप से AI और मशीन लर्निंग में उपयोग किया जाता है, जिसमें बड़े भाषा मॉडल (LLMs) का विकास और संचालन शामिल है। यदि आप इस क्षेत्र में अपने कौशल को बढ़ाना चाहते हैं, तो हमारे python फ्लैशकार्ड को एक त्वरित और कुशल तरीका देखें।

Ollama इंस्टॉल करना

  1. Ollama डाउनलोड पृष्ठ पर जाएँ यहां
  2. अपना प्लेटफ़ॉर्म चुनें (Windows, Linux, या macOS) और उपयुक्त संस्करण डाउनलोड करें।
  3. अपने प्लेटफ़ॉर्म के लिए सामान्य स्थापना प्रक्रिया का उपयोग करके Ollama को इंस्टॉल करें।

Open WebUI इंस्टॉल और चलाना

Open WebUI इंस्टॉल करने के लिए, आप Python के पैकेज प्रबंधक pip का उपयोग कर सकते हैं। इन चरणों का पालन करें:

  1. अपने टर्मिनल को खोलें और Open WebUI को इंस्टॉल करने के लिए निम्नलिखित कमांड चलाएँ:

    pip install open-webui
  2. स्थापना के बाद, pip को नवीनतम संस्करण में अपडेट करने के लिए निम्नलिखित कमांड चलाएँ:

    python.exe -m pip install --upgrade pip
  3. Open WebUI इंस्टॉल हो जाने के बाद, सर्वर को चलाने के लिए निम्नलिखित कमांड का उपयोग करें:

    open-webui serve
  4. Open WebUI को सफलतापूर्वक शुरू करने के बाद, आप इसे अपने ब्राउज़र में इस URL पर एक्सेस कर सकते हैं: http://localhost:8080।

इसके अलावा, यदि आप चाहें तो सीधे GitHub से प्रोजेक्ट को क्लोन करके Open WebUI को इंस्टॉल कर सकते हैं। अधिक विवरण के लिए इस मार्गदर्शिका के अंत में देखें।

Ollama को कॉन्फ़िगर करना और भाषा मॉडल डाउनलोड करना

डिफ़ॉल्ट रूप से, Ollama आपके सिस्टम पर भाषा मॉडलों (LLMs) को संग्रहीत करने के लिए निम्नलिखित पथ सेट करता है:

  • macOS: ~/.ollama/models
  • Linux: /usr/share/ollama/.ollama/models
  • Windows: C:\Users\%username%\.ollama\models

आप इस पथ को आवश्यकता अनुसार बदल सकते हैं। उदाहरण के लिए, Windows पर निम्नलिखित कमांड का उपयोग करें:

setx OLLAMA_MODELS "D:\ollama_models"

macOS पर पर्यावरण चर सेट करना

यदि आप Ollama को macOS एप्लिकेशन के रूप में चला रहे हैं, तो पर्यावरण चर को launchctl का उपयोग करके सेट किया जाना चाहिए। चर सेट करने के लिए, निम्नलिखित कमांड का उपयोग करें:

launchctl setenv OLLAMA_MODELS "/new/path/to/models"

चर सेट करने के बाद, Ollama एप्लिकेशन को पुनरारंभ करें ताकि बदलाव प्रभावी हो सकें।

Linux पर पर्यावरण चर सेट करना

Linux उपयोगकर्ताओं के लिए जो Ollama को systemd सेवा के रूप में चला रहे हैं, आप systemctl का उपयोग करके पर्यावरण चर सेट कर सकते हैं। यहाँ इसे करने का तरीका है:

  1. सेवा कॉन्फ़िगरेशन को खोलने के लिए निम्नलिखित कमांड चलाएँ:

    sudo systemctl edit ollama.service
  2. [Service] अनुभाग के तहत, निम्नलिखित पंक्ति जोड़ें:

    Environment="OLLAMA_MODELS=/new/path/to/models"
  3. फ़ाइल को सहेजें, फिर systemd को पुनः लोड करें और सेवा को पुनरारंभ करें:

    sudo systemctl daemon-reload
    sudo systemctl restart ollama

Ollama में भाषा मॉडल डाउनलोड और चलाना

Ollama में भाषा मॉडल डाउनलोड और चलाने के लिए, टर्मिनल में निम्नलिखित कमांड का उपयोग करें। यदि मॉडल पहले से इंस्टॉल नहीं है, तो ये कमांड स्वचालित रूप से मॉडल को डाउनलोड कर लेंगी:

  • Meta (Facebook) से LLaMA 3.1 मॉडल डाउनलोड और चलाने के लिए:

    ollama run llama3.1
  • Google से Gemma 2 मॉडल डाउनलोड और चलाने के लिए:

    ollama run gemma2

Open WebUI का उपयोग करना

Open WebUI चलने के बाद, आप इसे http://localhost:8080 के माध्यम से एक्सेस कर सकते हैं। इस पते पर जाने के बाद, आपको लॉगिन या रजिस्टर करने के लिए प्रेरित किया जाएगा। एक नया खाता बनाने के लिए, साइन अप विकल्प चुनें। यह खाता स्थानीय रूप से बनाया जाता है, जिसका अर्थ है कि यह केवल इस मशीन पर उपलब्ध है, और आपके सिस्टम पर अन्य उपयोगकर्ताओं को आपके डेटा तक पहुंच नहीं होगी।

Open WebUI Login Page
Open WebUI लॉगिन पृष्ठ

यदि आपने पहले Open WebUI शुरू किया है और Ollama के माध्यम से डाउनलोड किए गए मॉडल सूची में दिखाई नहीं दे रहे हैं, तो उपलब्ध मॉडलों को अपडेट करने के लिए पृष्ठ को रीफ़्रेश करें। Open WebUI के भीतर प्रबंधित सभी डेटा आपके डिवाइस पर स्थानीय रूप से संग्रहीत होते हैं, जो आपके मॉडलों और इंटरैक्शन पर गोपनीयता और नियंत्रण सुनिश्चित करते हैं।

Git का उपयोग करके Open WebUI इंस्टॉल करना

यदि आप Open WebUI को GitHub से प्रोजेक्ट को क्लोन करके और मैन्युअल रूप से प्रबंधित करके इंस्टॉल करना चाहते हैं, तो इन चरणों का पालन करें:

पूर्व आवश्यकताएँ:

स्थापना निर्देश:

Linux/macOS के लिए:

  1. एक टर्मिनल खोलें और उस निर्देशिका में नेविगेट करें जहाँ आप रिपॉजिटरी को क्लोन करना चाहते हैं।

  2. Git का उपयोग करके Open WebUI रिपॉजिटरी को क्लोन करें:

    git clone https://github.com/open-webui/open-webui.git
  3. प्रोजेक्ट निर्देशिका में जाएँ:

    cd open-webui/
  4. .env फ़ाइल को कॉपी करें:

    cp -RPp .env.example .env
  5. Node.js का उपयोग करके फ्रंटएंड का निर्माण करें:

    npm install
    npm run build
  6. backend निर्देशिका में जाएँ:

    cd ./backend
  7. (वैकल्पिक) एक Conda वातावरण बनाएं और सक्रिय करें:

    conda create --name open-webui-env python=3.11
    conda activate open-webui-env
  8. Python निर्भरताओं को इंस्टॉल करें:

    pip install -r requirements.txt -U
  9. एप्लिकेशन को शुरू करें:

    bash start.sh

Windows के लिए:

  1. एक टर्मिनल खोलें और उस निर्देशिका में नेविगेट करें जहाँ आप रिपॉजिटरी को क्लोन करना चाहते हैं।

  2. Git का उपयोग करके Open WebUI रिपॉजिटरी को क्लोन करें:

    git clone https://github.com/open-webui/open-webui.git
  3. प्रोजेक्ट निर्देशिका में जाएँ:

    cd open-webui
  4. .env फ़ाइल को कॉपी करें:

    copy .env.example .env
  5. Node.js का उपयोग करके फ्रंटएंड का निर्माण करें:

    npm install
    npm run build
  6. backend निर्देशिका में जाएँ:

    cd .\backend
  7. (वैकल्पिक) एक Conda वातावरण बनाएं और सक्रिय करें:

    conda create --name open-webui-env python=3.11
    conda activate open-webui-env
  8. Python निर्भरताओं को इंस्टॉल करें:

    pip install -r requirements.txt -U
  9. एप्लिकेशन को शुरू करें:

    start_windows.bat

Ollama + Open WebUI सारांश

इस मार्गदर्शिका का पालन करके, आपको बिना Docker के Ollama और Open WebUI को सफलतापूर्वक स्थानीय रूप से चलाने में सक्षम होना चाहिए। हालांकि, यदि आप किसी भी त्रुटियों या कठिनाइयों का सामना करते हैं, तो एक टिप्पणी छोड़ने में संकोच न करें, और मैं आपकी सहायता करने का सर्वोत्तम प्रयास करूंगा।