Ollama + Open WebUI: विंडोज, लिनक्स या macOS पर लोकली LLMs चलाने का एक तरीका (बिना Docker के)
अनुमानित पढ़ने का समय: 7 मिनटों
परिचय
यह मार्गदर्शिका आपको Windows, Linux, या macOS पर Docker की आवश्यकता के बिना Ollama और Open WebUI का उपयोग करके बड़े भाषा मॉडल (LLM) को आसानी से सेटअप और स्थानीय रूप से चलाने का तरीका दिखाएगी। Ollama स्थानीय मॉडल इन्फेरेंस प्रदान करता है, और Open WebUI एक उपयोगकर्ता इंटरफ़ेस है जो इन मॉडलों के साथ इंटरैक्शन को सरल बनाता है। यह अनुभव ChatGPT, Google Gemini, या Claude AI जैसे इंटरफेस के उपयोग के समान है।
Docker के बिना Open WebUI क्यों चलाएँ?
Docker के बिना Open WebUI चलाने से आप अपने कंप्यूटर के संसाधनों का अधिक कुशलता से उपयोग कर सकते हैं। कंटेनरीकृत वातावरण की सीमाओं के बिना, उपलब्ध सभी सिस्टम मेमोरी, CPU पावर और स्टोरेज को पूरी तरह से एप्लिकेशन चलाने के लिए समर्पित किया जा सकता है। यह विशेष रूप से तब महत्वपूर्ण होता है जब आप संसाधन-गहन मॉडलों के साथ काम कर रहे होते हैं, जहां हर प्रदर्शन बिंदु मायने रखता है।
उदाहरण के लिए, मान लें कि आप बड़े भाषा मॉडलों के साथ इंटरैक्ट करने के लिए Open WebUI का उपयोग कर रहे हैं। इस मामले में, देशी निष्पादन तेज़ प्रोसेसिंग समय और सुचारू प्रदर्शन का परिणाम हो सकता है, क्योंकि Docker कंटेनर के प्रबंधन से कोई ओवरहेड नहीं होता है। देशी रूप से चलाने से आपको अतिरिक्त लाभ भी मिलते हैं:
- सरल सेटअप: आप Docker कंटेनरों को सेटअप और प्रबंधित करने की जटिलता से बचते हैं, जो विशेष रूप से उन उपयोगकर्ताओं के लिए लाभकारी हो सकता है जो एक सीधा और प्रत्यक्ष इंस्टॉलेशन पसंद करते हैं।
- बेहतर प्रदर्शन: Docker के वर्चुअलाइजेशन के बिना, आपके सिस्टम के संसाधनों के साथ अधिक प्रत्यक्ष कनेक्शन होता है, जिससे एप्लिकेशन प्रदर्शन में सुधार हो सकता है।
- सिस्टम संसाधनों तक प्रत्यक्ष पहुँच: आपके पास फ़ाइल पथों, सेटिंग्स और सिस्टम कॉन्फ़िगरेशन पर प्रत्यक्ष नियंत्रण होता है, जो समस्या निवारण और कस्टमाइजेशन को आसान बनाता है।
पूर्व आवश्यकताएँ
शुरू करने से पहले, सुनिश्चित करें कि आपके सिस्टम पर निम्नलिखित इंस्टॉल हैं:
- Python: Open WebUI चलाने के लिए आवश्यक है।
सुनिश्चित करें कि आप Python 3.11.X का उपयोग कर रहे हैं। उदाहरण के लिए, 3.11.6 संस्करण अच्छी तरह से काम करता है। Python का नवीनतम संस्करण, 3.12.7, वर्तमान संस्करण के साथ संगत नहीं है।
आप Python को यहाँ से डाउनलोड कर सकते हैं। अपने ऑपरेटिंग सिस्टम के लिए उपयुक्त संस्करण चुनना सुनिश्चित करें। Python एक बहुमुखी प्रोग्रामिंग भाषा है जिसका व्यापक रूप से AI और मशीन लर्निंग में उपयोग किया जाता है, जिसमें बड़े भाषा मॉडल (LLMs) का विकास और संचालन शामिल है। यदि आप इस क्षेत्र में अपने कौशल को बढ़ाना चाहते हैं, तो हमारे python फ्लैशकार्ड को एक त्वरित और कुशल तरीका देखें।
Ollama इंस्टॉल करना
- Ollama डाउनलोड पृष्ठ पर जाएँ यहां।
- अपना प्लेटफ़ॉर्म चुनें (Windows, Linux, या macOS) और उपयुक्त संस्करण डाउनलोड करें।
- अपने प्लेटफ़ॉर्म के लिए सामान्य स्थापना प्रक्रिया का उपयोग करके Ollama को इंस्टॉल करें।
Open WebUI इंस्टॉल और चलाना
Open WebUI इंस्टॉल करने के लिए, आप Python के पैकेज प्रबंधक pip का उपयोग कर सकते हैं। इन चरणों का पालन करें:
अपने टर्मिनल को खोलें और Open WebUI को इंस्टॉल करने के लिए निम्नलिखित कमांड चलाएँ:
pip install open-webui
स्थापना के बाद, pip को नवीनतम संस्करण में अपडेट करने के लिए निम्नलिखित कमांड चलाएँ:
python.exe -m pip install --upgrade pip
Open WebUI इंस्टॉल हो जाने के बाद, सर्वर को चलाने के लिए निम्नलिखित कमांड का उपयोग करें:
open-webui serve
Open WebUI को सफलतापूर्वक शुरू करने के बाद, आप इसे अपने ब्राउज़र में इस URL पर एक्सेस कर सकते हैं: http://localhost:8080।
इसके अलावा, यदि आप चाहें तो सीधे GitHub से प्रोजेक्ट को क्लोन करके Open WebUI को इंस्टॉल कर सकते हैं। अधिक विवरण के लिए इस मार्गदर्शिका के अंत में देखें।
Ollama को कॉन्फ़िगर करना और भाषा मॉडल डाउनलोड करना
डिफ़ॉल्ट रूप से, Ollama आपके सिस्टम पर भाषा मॉडलों (LLMs) को संग्रहीत करने के लिए निम्नलिखित पथ सेट करता है:
- macOS:
~/.ollama/models
- Linux:
/usr/share/ollama/.ollama/models
- Windows:
C:\Users\%username%\.ollama\models
आप इस पथ को आवश्यकता अनुसार बदल सकते हैं। उदाहरण के लिए, Windows पर निम्नलिखित कमांड का उपयोग करें:
setx OLLAMA_MODELS "D:\ollama_models"
macOS पर पर्यावरण चर सेट करना
यदि आप Ollama को macOS एप्लिकेशन के रूप में चला रहे हैं, तो पर्यावरण चर को launchctl
का उपयोग करके सेट किया जाना चाहिए। चर सेट करने के लिए, निम्नलिखित कमांड का उपयोग करें:
launchctl setenv OLLAMA_MODELS "/new/path/to/models"
चर सेट करने के बाद, Ollama एप्लिकेशन को पुनरारंभ करें ताकि बदलाव प्रभावी हो सकें।
Linux पर पर्यावरण चर सेट करना
Linux उपयोगकर्ताओं के लिए जो Ollama को systemd सेवा के रूप में चला रहे हैं, आप systemctl
का उपयोग करके पर्यावरण चर सेट कर सकते हैं। यहाँ इसे करने का तरीका है:
सेवा कॉन्फ़िगरेशन को खोलने के लिए निम्नलिखित कमांड चलाएँ:
sudo systemctl edit ollama.service
[Service] अनुभाग के तहत, निम्नलिखित पंक्ति जोड़ें:
Environment="OLLAMA_MODELS=/new/path/to/models"
फ़ाइल को सहेजें, फिर systemd को पुनः लोड करें और सेवा को पुनरारंभ करें:
sudo systemctl daemon-reload
sudo systemctl restart ollama
Ollama में भाषा मॉडल डाउनलोड और चलाना
Ollama में भाषा मॉडल डाउनलोड और चलाने के लिए, टर्मिनल में निम्नलिखित कमांड का उपयोग करें। यदि मॉडल पहले से इंस्टॉल नहीं है, तो ये कमांड स्वचालित रूप से मॉडल को डाउनलोड कर लेंगी:
Meta (Facebook) से LLaMA 3.1 मॉडल डाउनलोड और चलाने के लिए:
ollama run llama3.1
Google से Gemma 2 मॉडल डाउनलोड और चलाने के लिए:
ollama run gemma2
Open WebUI का उपयोग करना
Open WebUI चलने के बाद, आप इसे http://localhost:8080 के माध्यम से एक्सेस कर सकते हैं। इस पते पर जाने के बाद, आपको लॉगिन या रजिस्टर करने के लिए प्रेरित किया जाएगा। एक नया खाता बनाने के लिए, साइन अप विकल्प चुनें। यह खाता स्थानीय रूप से बनाया जाता है, जिसका अर्थ है कि यह केवल इस मशीन पर उपलब्ध है, और आपके सिस्टम पर अन्य उपयोगकर्ताओं को आपके डेटा तक पहुंच नहीं होगी।
यदि आपने पहले Open WebUI शुरू किया है और Ollama के माध्यम से डाउनलोड किए गए मॉडल सूची में दिखाई नहीं दे रहे हैं, तो उपलब्ध मॉडलों को अपडेट करने के लिए पृष्ठ को रीफ़्रेश करें। Open WebUI के भीतर प्रबंधित सभी डेटा आपके डिवाइस पर स्थानीय रूप से संग्रहीत होते हैं, जो आपके मॉडलों और इंटरैक्शन पर गोपनीयता और नियंत्रण सुनिश्चित करते हैं।
Git का उपयोग करके Open WebUI इंस्टॉल करना
यदि आप Open WebUI को GitHub से प्रोजेक्ट को क्लोन करके और मैन्युअल रूप से प्रबंधित करके इंस्टॉल करना चाहते हैं, तो इन चरणों का पालन करें:
पूर्व आवश्यकताएँ:
- Git: सुनिश्चित करें कि आपके सिस्टम पर Git इंस्टॉल है। आप इसे यहाँ से डाउनलोड कर सकते हैं।
- Anaconda: अपने Python वातावरण को प्रबंधित करने के लिए Anaconda का उपयोग करने की सिफारिश की जाती है। आप Anaconda को यहाँ से डाउनलोड और इंस्टॉल कर सकते हैं।
स्थापना निर्देश:
Linux/macOS के लिए:
एक टर्मिनल खोलें और उस निर्देशिका में नेविगेट करें जहाँ आप रिपॉजिटरी को क्लोन करना चाहते हैं।
Git का उपयोग करके Open WebUI रिपॉजिटरी को क्लोन करें:
git clone https://github.com/open-webui/open-webui.git
प्रोजेक्ट निर्देशिका में जाएँ:
cd open-webui/
.env फ़ाइल को कॉपी करें:
cp -RPp .env.example .env
Node.js का उपयोग करके फ्रंटएंड का निर्माण करें:
npm install
npm run build
backend
निर्देशिका में जाएँ:cd ./backend
(वैकल्पिक) एक Conda वातावरण बनाएं और सक्रिय करें:
conda create --name open-webui-env python=3.11
conda activate open-webui-env
Python निर्भरताओं को इंस्टॉल करें:
pip install -r requirements.txt -U
एप्लिकेशन को शुरू करें:
bash start.sh
Windows के लिए:
एक टर्मिनल खोलें और उस निर्देशिका में नेविगेट करें जहाँ आप रिपॉजिटरी को क्लोन करना चाहते हैं।
Git का उपयोग करके Open WebUI रिपॉजिटरी को क्लोन करें:
git clone https://github.com/open-webui/open-webui.git
प्रोजेक्ट निर्देशिका में जाएँ:
cd open-webui
.env फ़ाइल को कॉपी करें:
copy .env.example .env
Node.js का उपयोग करके फ्रंटएंड का निर्माण करें:
npm install
npm run build
backend निर्देशिका में जाएँ:
cd .\backend
(वैकल्पिक) एक Conda वातावरण बनाएं और सक्रिय करें:
conda create --name open-webui-env python=3.11
conda activate open-webui-env
Python निर्भरताओं को इंस्टॉल करें:
pip install -r requirements.txt -U
एप्लिकेशन को शुरू करें:
start_windows.bat
Ollama + Open WebUI सारांश
इस मार्गदर्शिका का पालन करके, आपको बिना Docker के Ollama और Open WebUI को सफलतापूर्वक स्थानीय रूप से चलाने में सक्षम होना चाहिए। हालांकि, यदि आप किसी भी त्रुटियों या कठिनाइयों का सामना करते हैं, तो एक टिप्पणी छोड़ने में संकोच न करें, और मैं आपकी सहायता करने का सर्वोत्तम प्रयास करूंगा।