Open WebUI : Votre ChatGPT Privé Installé en 30 Minutes | SovreAI
🛠️ Tutoriel Technique ⏱ 9 min de lecture ✅ Mars 2026

Open WebUI : Installez Votre Propre ChatGPT Privé en 30 Minutes

✍️ Équipe SovreAI 📅 Mars 2026 🏷️ Open WebUI · Ollama · IA Locale ⏱ 9 min de lecture

ChatGPT est pratique. Mais chaque requête que vous lui envoyez transite par les serveurs d'OpenAI aux États-Unis. Vos documents, vos questions, vos données internes — tout ça part dans le cloud américain.

Open WebUI change la donne. C'est une interface identique à ChatGPT — conversations, historique, gestion de documents, accès multi-utilisateurs — mais hébergée entièrement sur votre propre machine ou serveur. Zéro connexion vers l'extérieur. Zéro abonnement. Zéro compromis sur la confidentialité.

Dans ce guide, vous allez installer Open WebUI de A à Z en moins de 30 minutes, le connecter à un modèle IA performant via Ollama, et le configurer pour une utilisation en équipe dans votre PME.


Qu'est-ce qu'Open WebUI exactement ?

Open WebUI (anciennement Ollama WebUI) est un projet open source lancé en 2023. Il propose une interface web complète pour interagir avec des modèles IA locaux — principalement ceux gérés par Ollama, mais aussi des modèles compatibles avec l'API OpenAI.

Ce que vous obtenez concrètement

  • Une interface de chat identique à ChatGPT, accessible depuis n'importe quel navigateur de votre réseau
  • La gestion de plusieurs modèles — basculez entre Mistral, LLaMA 3, Gemma en un clic
  • Un historique des conversations par utilisateur
  • La possibilité de soumettre des documents (PDF, Word, texte) pour les analyser
  • La gestion multi-utilisateurs avec des comptes séparés et des droits configurables
  • Des prompts système personnalisables par rôle (commercial, RH, juridique…)
  • Un accès 100% local — aucune donnée ne quitte votre réseau

Open WebUI vs ChatGPT : la vraie différence

La fonctionnalité est quasi identique pour 95% des usages en PME. La différence fondamentale : avec ChatGPT, vos données partent chez OpenAI. Avec Open WebUI, elles restent sur votre machine. Pour le reste — qualité des réponses, interface, facilité d'utilisation — l'expérience est comparable, surtout avec les derniers modèles Mistral et LLaMA 3. C'est le cœur de ce qu'on appelle l'interface IA locale.

Prérequis avant l'installation

Avant de commencer, vérifiez que vous disposez de :

Côté matériel

  • Un PC ou serveur sous Windows 10/11, macOS ou Linux (Ubuntu recommandé pour un usage serveur)
  • Minimum 8 Go de RAM — 16 Go recommandés pour un usage fluide en équipe
  • 20 Go d'espace disque libre minimum pour les modèles IA
  • Une connexion internet pour le téléchargement initial (ensuite tout fonctionne hors ligne)

Côté logiciel

  • Ollama installé et fonctionnel sur votre machine — si ce n'est pas encore le cas, suivez notre guide installer Ollama en entreprise avant de continuer
  • Docker Desktop installé (Windows/Mac) ou Docker Engine (Linux) — méthode la plus simple et la plus stable
  • Un navigateur récent (Chrome, Firefox, Edge)

Côté réseau (pour un usage en équipe)

  • Une adresse IP fixe sur votre machine/serveur dans votre réseau local
  • L'accès au port 3000 non bloqué par votre pare-feu interne

Installer Docker

Docker est le conteneur qui va faire tourner Open WebUI de façon stable et isolée. Si vous l'avez déjà, passez directement à l'étape 2.

Sur Windows et macOS

Rendez-vous sur docker.com/products/docker-desktop et téléchargez Docker Desktop. L'installation est un assistant classique — suivez les étapes, redémarrez si demandé.

Vérifiez que Docker fonctionne en ouvrant un terminal et en tapant :

Terminal
docker --version

Vous devez voir quelque chose comme Docker version 26.x.x. Si oui, Docker est opérationnel.

Sur Ubuntu / Linux

Bash
sudo apt update
sudo apt install docker.io -y
sudo systemctl start docker
sudo systemctl enable docker
sudo usermod -aG docker $USER

Déconnectez-vous et reconnectez-vous pour que les droits s'appliquent.

Lancer Open WebUI avec Docker

C'est la commande principale. Une seule ligne suffit pour télécharger et lancer Open WebUI.

Si Ollama est installé sur la même machine

Bash
docker run -d -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

Si Ollama est sur une machine différente du réseau

Bash
docker run -d -p 3000:8080 \
  -e OLLAMA_BASE_URL=http://ADRESSE_IP_OLLAMA:11434 \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

Remplacez ADRESSE_IP_OLLAMA par l'adresse IP de votre machine Ollama sur le réseau local (par exemple 192.168.1.50).

Le téléchargement prend quelques minutes. Une fois terminé, ouvrez votre navigateur et accédez à :

Navigateur
http://localhost:3000

Ou depuis un autre appareil sur le réseau :

Navigateur — autre poste du réseau
http://ADRESSE_IP_DE_VOTRE_SERVEUR:3000
✅ Open WebUI est lancé. Vous devriez voir la page de création du premier compte administrateur.
Vous préférez qu'on s'en charge ?

Notre équipe installe et configure Open WebUI sur votre infrastructure en moins de 48h — matériel, modèles, comptes utilisateurs, assistants métier.

Réserver un créneau →

Créer votre compte administrateur

Au premier lancement, Open WebUI vous demande de créer un compte administrateur. C'est le compte maître qui pourra gérer les utilisateurs, les modèles et les paramètres.

  • Email : utilisez un email professionnel ou interne
  • Mot de passe : choisissez un mot de passe fort — c'est le compte admin de votre IA d'entreprise
  • Cliquez sur "Créer un compte"

Vous arrivez directement sur l'interface de chat. Si Ollama tourne et qu'un modèle est installé, vous pouvez déjà commencer à l'utiliser.

💡 Conseil : notez les identifiants admin dans votre gestionnaire de mots de passe. Si vous les perdez, la récupération nécessite un accès direct au serveur.

Connecter un modèle IA via Ollama

Si vous n'avez pas encore téléchargé de modèle, faites-le depuis votre terminal :

Mistral 7B — recommandé pour PME

Terminal
ollama pull mistral

LLaMA 3 8B — très performant, un peu plus lourd

Terminal
ollama pull llama3

Gemma 2 — compact, idéal pour machines modestes

Terminal
ollama pull gemma2

Le téléchargement prend 5 à 20 minutes selon votre connexion et la taille du modèle. Une fois terminé, retournez dans Open WebUI — le modèle apparaît automatiquement dans le sélecteur en haut de l'interface.

⚠️ Choisissez votre modèle selon votre RAM disponible : Mistral 7B nécessite environ 8 Go de RAM, LLaMA 3 8B environ 10 Go, LLaMA 3 70B environ 48 Go. Pour une PME standard, Mistral 7B est le meilleur compromis performance/ressources.

Configurer Open WebUI pour votre équipe

C'est l'étape que la plupart des tutoriels oublient — et pourtant c'est celle qui détermine si votre équipe va réellement adopter l'outil.

Créer les comptes utilisateurs

Allez dans Paramètres → Administration → Utilisateurs → Créer un utilisateur. Vous pouvez aussi activer les inscriptions ouvertes sur votre réseau local — vos collaborateurs créent eux-mêmes leur compte en accédant à l'adresse IP du serveur. Dans ce cas, définissez le rôle par défaut sur "Utilisateur" (pas admin).

Configurer les prompts système par rôle

Définissez des assistants spécialisés avec des instructions permanentes adaptées à chaque métier :

Prompt — Assistant Commercial
Tu es un assistant commercial spécialisé pour une PME française.
Tu aides à rédiger des propositions commerciales, des emails de suivi
et des argumentaires de vente. Tu es concis, professionnel et orienté résultats.
Tu ne divulgues jamais d'informations confidentielles sur l'entreprise.
Prompt — Assistant RH
Tu es un assistant RH pour une entreprise française. Tu connais le droit
du travail français et tu aides à rédiger des fiches de poste, des comptes rendus
d'entretien et des communications internes. Tu es neutre, bienveillant et précis.
Prompt — Assistant Juridique
Tu es un assistant juridique qui aide à analyser des contrats et des documents légaux.
Tu identifies les clauses importantes, les points d'attention et les risques potentiels.
Tu rappelles toujours que tes analyses ne remplacent pas un avis d'avocat.

Pour créer ces assistants : Espace de travail → Modèles → Créer un modèle.

Activer la gestion de documents (RAG)

Open WebUI intègre une fonctionnalité de RAG (Retrieval-Augmented Generation) qui permet de soumettre des documents et de les interroger directement. Faites glisser un PDF ou Word dans la fenêtre de chat — l'IA analysera le document et répondra à vos questions dessus, entièrement en local.

Accès depuis le réseau local

Pour que vos collaborateurs accèdent à Open WebUI depuis leurs postes, ils ouvrent simplement leur navigateur et tapent :

Navigateur
http://ADRESSE_IP_DU_SERVEUR:3000

Trouver l'adresse IP de votre serveur

  • Windows : ipconfig dans le terminal → cherchez "Adresse IPv4"
  • Linux / Mac : ip addr ou ifconfig
💡 Conseil réseau : attribuez une IP fixe à votre serveur Open WebUI dans les paramètres de votre routeur (réservation DHCP). Ainsi l'adresse ne changera jamais et vos collaborateurs auront toujours le même lien.

Mettre à jour Open WebUI

Open WebUI est mis à jour régulièrement. Pour mettre à jour votre installation :

Bash
docker pull ghcr.io/open-webui/open-webui:main
docker stop open-webui
docker rm open-webui

Puis relancez la commande d'installation de l'étape 2. Vos données (conversations, utilisateurs, paramètres) sont conservées dans le volume Docker open-webui — elles ne sont pas supprimées.

Résolution des problèmes courants

Open WebUI se lance mais n'arrive pas à contacter Ollama

Vérifiez qu'Ollama tourne bien avec ollama serve dans un terminal. Si Open WebUI est dans Docker et Ollama sur la machine hôte, assurez-vous d'avoir utilisé --add-host=host.docker.internal:host-gateway dans la commande Docker.

La page ne s'affiche pas depuis un autre ordinateur du réseau

Vérifiez que le port 3000 n'est pas bloqué par le pare-feu Windows ou Linux. Sous Windows : Pare-feu Windows → Règles entrantes → Autoriser le port 3000.

L'IA répond très lentement

Votre machine manque probablement de RAM ou utilise uniquement le CPU. L'idéal est d'avoir une carte graphique compatible CUDA (NVIDIA) ou Metal (Mac Apple Silicon). Sans GPU, les réponses sont plus lentes mais fonctionnelles.

Les utilisateurs ne peuvent pas créer de compte

Vérifiez dans Paramètres → Administration → Général que les inscriptions sont activées et que le domaine autorisé correspond à votre réseau.

Questions fréquentes

Oui, entièrement. C'est un projet open source sous licence MIT. Vous pouvez l'utiliser, le modifier et le déployer sans aucun frais de licence. Le seul coût est matériel — le serveur sur lequel il tourne. Consultez le dépôt GitHub officiel d'Open WebUI pour les dernières mises à jour.

Non. Une fois Ollama et les modèles téléchargés, et Open WebUI lancé, tout fonctionne hors ligne. Aucune requête ne sort de votre réseau. C'est précisément ce qui garantit la confidentialité de vos données — et votre protection face au Cloud Act américain.

Oui. Open WebUI est compatible avec n'importe quelle API au format OpenAI — ce qui inclut de nombreux serveurs de modèles locaux (LM Studio, llama.cpp…). Vous pouvez aussi le connecter à l'API OpenAI officielle si vous souhaitez un modèle hybride local/cloud.

Cela dépend principalement de la puissance de votre serveur. Sur un serveur avec 32 Go de RAM et un GPU milieu de gamme, 5 à 10 utilisateurs simultanés est réaliste avec Mistral 7B. Pour des équipes plus grandes, il faudra dimensionner le matériel en conséquence — c'est ce que nous évaluons lors de l'audit gratuit.

L'historique est stocké localement dans le volume Docker sur votre serveur. Il n'est accessible qu'aux utilisateurs authentifiés. Pour une sécurité maximale, assurez-vous que le serveur est physiquement sécurisé et que les accès réseau sont restreints à votre réseau interne.

Vous préférez qu'on s'en charge pour vous ?

Notre équipe installe et configure Open WebUI sur votre infrastructure — matériel, modèles, comptes utilisateurs, assistants métier inclus.