Ollama + Open WebUI : Une manière d’exécuter des LLMs localement sur Windows, Linux ou macOS (sans Docker)
Temps de lecture estimé: 6 minutes
Introduction
Ce guide vous montrera comment configurer et exécuter facilement des modèles de langage de grande taille (LLM) localement à l’aide de Ollama et Open WebUI sur Windows, Linux ou macOS, sans avoir besoin de Docker. Ollama fournit une inférence de modèle local, et Open WebUI est une interface utilisateur qui simplifie l’interaction avec ces modèles. L’expérience est similaire à l’utilisation d’interfaces telles que ChatGPT, Google Gemini ou Claude AI.
Pourquoi exécuter Open WebUI sans Docker ?
Exécuter Open WebUI sans Docker vous permet d’utiliser les ressources de votre ordinateur de manière plus efficace. Sans les limitations des environnements conteneurisés, toute la mémoire système disponible, la puissance CPU et le stockage peuvent être entièrement dédiés à l’exécution de l’application. Cela est particulièrement important lorsque vous travaillez avec des modèles nécessitant beaucoup de ressources, où chaque bit de performance compte.
Par exemple, si vous utilisez Open WebUI pour interagir avec de grands modèles de langage, l’exécution native peut entraîner des temps de traitement plus rapides et des performances plus fluides, car il n’y a pas de surcharge due à la gestion du conteneur par Docker. En exécutant nativement, vous gagnez également :
- Configuration plus simple : Vous évitez la complexité de la configuration et de la gestion des conteneurs Docker, ce qui peut être particulièrement avantageux pour les utilisateurs qui préfèrent une installation plus simple et directe.
- Meilleures performances : Sans la virtualisation de Docker, il y a une connexion plus directe aux ressources de votre système, ce qui peut entraîner de meilleures performances de l’application.
- Accès direct aux ressources du système : Vous avez un contrôle direct sur les chemins de fichiers, les paramètres et les configurations système, ce qui facilite le dépannage et la personnalisation.
Prérequis
Avant de commencer, assurez-vous d’avoir installé les éléments suivants sur votre système :
- Python : Requis pour exécuter Open WebUI.
Assurez-vous d’utiliser Python 3.11.X. Par exemple, la version 3.11.6 fonctionne bien. La dernière version de Python, 3.12.7, n’est pas compatible avec la version actuelle d’Open WebUI.
Vous pouvez télécharger Python ici. Assurez-vous de sélectionner la version appropriée pour votre système d’exploitation. Python est un langage de programmation polyvalent largement utilisé dans l’IA et l’apprentissage automatique, y compris le développement et l’exploitation de grands modèles de langage (LLM). Si vous souhaitez développer vos compétences dans ce domaine, n’hésitez pas à consulter nos fiches de révision Python pour un apprentissage rapide et efficace.
Installation d’Ollama
- Allez sur la page de téléchargement d’Ollama.
- Choisissez votre plateforme (Windows, Linux ou macOS) et téléchargez la version appropriée.
- Installez Ollama en utilisant le processus d’installation standard pour votre plateforme.
Installation et exécution d’Open WebUI
Pour installer Open WebUI, vous pouvez utiliser le gestionnaire de packages pip de Python. Suivez ces étapes :
Ouvrez votre terminal et exécutez la commande suivante pour installer Open WebUI :
pip install open-webui
Après l’installation, mettez à jour pip vers la dernière version en exécutant :
python.exe -m pip install --upgrade pip
Une fois qu’Open WebUI est installé, démarrez le serveur en utilisant la commande suivante :
open-webui serve
Après avoir démarré Open WebUI avec succès, vous pouvez y accéder dans votre navigateur à l’adresse : http://localhost:8080.
En outre, si vous le souhaitez, vous pouvez installer Open WebUI en clonant le projet directement à partir de GitHub. Pour plus de détails, voir la section à la fin de ce guide.
Configuration d’Ollama et téléchargement de modèles de langage
Par défaut, Ollama définit les chemins suivants pour stocker les modèles de langage (LLM) sur votre système :
- macOS :
~/.ollama/models
- Linux :
/usr/share/ollama/.ollama/models
- Windows :
C:\Users\%username%\.ollama\models
Vous pouvez modifier ce chemin si nécessaire. Par exemple, sous Windows, utilisez la commande suivante :
setx OLLAMA_MODELS "D:\ollama_models"
Configuration des variables d’environnement sur macOS
Si vous exécutez Ollama comme application macOS, les variables d’environnement doivent être définies à l’aide de launchctl
. Pour définir une variable, utilisez la commande suivante :
launchctl setenv OLLAMA_MODELS "/new/path/to/models"
Après avoir défini la variable, redémarrez l’application Ollama pour que les modifications prennent effet.
Configuration des variables d’environnement sur Linux
Pour les utilisateurs de Linux exécutant Ollama comme service systemd, vous pouvez configurer les variables d’environnement à l’aide de systemctl
. Voici comment procéder :
Ouvrez la configuration du service en exécutant :
sudo systemctl edit ollama.service
Sous la section [Service], ajoutez la ligne suivante :
Environment="OLLAMA_MODELS=/new/path/to/models"
Enregistrez le fichier, puis rechargez systemd et redémarrez le service :
sudo systemctl daemon-reload
sudo systemctl restart ollama
Téléchargement et exécution de modèles de langage dans Ollama
Pour télécharger et exécuter des modèles de langage dans Ollama, utilisez les commandes suivantes dans le terminal. Ces commandes téléchargeront automatiquement le modèle s’il n’est pas déjà installé :
Pour télécharger et exécuter le modèle LLaMA 3.1 de Meta (Facebook) :
ollama run llama3.1
Pour télécharger et exécuter le modèle Gemma 2 de Google :
ollama run gemma2
Utilisation d’Open WebUI
Une fois qu’Open WebUI est en cours d’exécution, vous pouvez y accéder via http://localhost:8080. Après avoir accédé à cette adresse, vous serez invité à vous connecter ou à vous inscrire. Pour créer un nouveau compte, sélectionnez l’option S’inscrire. Ce compte est créé localement, ce qui signifie qu’il n’est disponible que sur cet ordinateur, et aucun autre utilisateur de votre système n’aura accès à vos données.
Si vous avez déjà démarré Open WebUI et que les modèles téléchargés via Ollama n’apparaissent pas dans la liste, actualisez la page pour mettre à jour les modèles disponibles. Toutes les données gérées au sein d’Open WebUI sont stockées localement sur votre appareil, garantissant ainsi la confidentialité et le contrôle de vos modèles et interactions.
Installation d’Open WebUI à l’aide de Git
Si vous souhaitez installer Open WebUI en clonant le projet depuis GitHub et en le gérant manuellement, suivez ces étapes :
Prérequis :
- Git : Assurez-vous que Git est installé sur votre système. Vous pouvez le télécharger ici.
- Anaconda : Il est recommandé d’utiliser Anaconda pour gérer votre environnement Python. Vous pouvez télécharger et installer Anaconda à partir de ici.
Instructions d’installation :
Pour Linux/macOS :
Ouvrez un terminal et accédez au répertoire où vous souhaitez cloner le dépôt.
Clonez le dépôt Open WebUI en utilisant Git :
git clone https://github.com/open-webui/open-webui.git
Accédez au répertoire du projet :
cd open-webui/
Copiez le fichier .env :
cp -RPp .env.example .env
Construisez le frontend en utilisant Node.js :
npm install
npm run build
Accédez au répertoire
backend
:cd ./backend
(Optionnel) Créez et activez un environnement Conda :
conda create --name open-webui-env python=3.11
conda activate open-webui-env
Installez les dépendances Python :
pip install -r requirements.txt -U
Démarrez l’application :
bash start.sh
Pour Windows :
Ouvrez un terminal et accédez au répertoire où vous souhaitez cloner le dépôt.
Clonez le dépôt Open WebUI en utilisant Git :
git clone https://github.com/open-webui/open-webui.git
Accédez au répertoire du projet :
cd open-webui
Copiez le fichier .env :
copy .env.example .env
Construisez le frontend en utilisant Node.js :
npm install
npm run build
Accédez au répertoire backend :
cd .\backend
(Optionnel) Créez et activez un environnement Conda :
conda create --name open-webui-env python=3.11
conda activate open-webui-env
Installez les dépendances Python :
pip install -r requirements.txt -U
Démarrez l’application :
start_windows.bat
Résumé d’Ollama + Open WebUI
En suivant ce guide, vous devriez pouvoir exécuter Ollama et Open WebUI (sans Docker) localement sans problème. Cependant, si vous rencontrez des erreurs ou des difficultés en cours de route, n’hésitez pas à laisser un commentaire, et je ferai de mon mieux pour vous aider.