Accueil Blog Open WebUI + Ollama
🔥 Le plus populaire sur Reddit

Open WebUI + Ollama : votre ChatGPT privé gratuit en 5 minutes

L'outil IA le plus upvoté de 2026 sur r/LocalLLaMA

Par l'équipe OutilsIA avril 2026 12 min de lecture

« ChatGPT coûte 20 $/mois. Pour une équipe de 10 personnes, c'est 200 $/mois — 2 400 $ par an. Open WebUI + Ollama coûte 0 $. Pour toujours. Et vos données restent chez vous. »

Open WebUI est l'interface web open source la plus populaire pour Ollama. Avec plus de 75 000 étoiles sur GitHub et des dizaines de milliers d'upvotes sur Reddit, c'est devenu le standard pour quiconque veut un ChatGPT privé, gratuit et local.

En 3 commandes et 5 minutes, vous obtenez : une interface identique à ChatGPT, le RAG intégré (glissez-déposez vos PDF), le support multi-utilisateurs, la génération d'images, la recherche web, et le function calling. Tout fonctionne en local, aucune donnée ne quitte votre machine.

Dans ce guide, nous allons installer Open WebUI, explorer toutes ses fonctionnalités, et le comparer aux alternatives.

🤩 Pourquoi Open WebUI est partout en 2026

75K+
étoiles GitHub
0 $
pour toujours
100%
local & privé
5 min
d'installation

🛠️ Installation en 3 commandes

Prérequis : Ollama installé et Docker. C'est tout.

Commande 1 : Installer Ollama (si pas déjà fait)

curl -fsSL https://ollama.com/install.sh | sh

Commande 2 : Télécharger un modèle

# Le meilleur rapport qualité/taille pour 2026
ollama pull llama3.1:8b
# Optionnel : modèle pour les embeddings (RAG)
ollama pull nomic-embed-text

Commande 3 : Lancer Open WebUI

# Une seule commande Docker — c'est tout !
docker run -d -p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:main

Ouvrez http://localhost:3000 dans votre navigateur. Créez un compte admin. C'est prêt.

💡 GPU NVIDIA ? Ajoutez --gpus all au docker run pour activer l'accélération GPU. La vitesse passe de ~5 tok/s (CPU) à ~40 tok/s (RTX 3060).

✨ Tour des fonctionnalités

💬 Chat intelligent

Interface identique à ChatGPT. Historique, conversations multiples, markdown, code highlight, LaTeX.

📄 RAG intégré

Glissez-déposez vos PDF, DOCX, TXT. Open WebUI découpe, indexe et recherche automatiquement. Zéro config.

👥 Multi-utilisateurs

Partagez avec votre famille ou équipe. Chaque utilisateur a ses conversations privées. Rôles admin/user.

🎨 Génération d'images

Connecté à Stable Diffusion ou DALL-E. Générez des images directement dans le chat.

🌐 Recherche web

Active la recherche web en temps réel via Brave Search, SearXNG ou Google. L'IA cite ses sources.

🔧 Function calling

Créez des outils personnalisés (fonctions Python) que l'IA peut appeler. Calculatrice, météo, APIs...

🎤 Voix

Entrée vocale (Whisper) + synthèse vocale. Parlez à votre IA comme avec Siri ou Alexa.

🔄 Switch de modèle

Changez de modèle en un clic. Téléchargez de nouveaux modèles depuis l'interface.

📄 Le RAG intégré : votre base de connaissances privée

C'est la fonctionnalité qui distingue Open WebUI de toutes les alternatives. Le RAG (Retrieval-Augmented Generation) est intégré nativement — pas besoin de ChromaDB, LangChain ou tout autre outil externe.

Comment utiliser le RAG dans Open WebUI

1
Uploadez vos documents

Glissez-déposez vos PDF, DOCX, TXT, CSV dans le chat ou dans la section "Documents"

2
Indexation automatique

Open WebUI découpe le document en chunks, génère les embeddings (via Ollama), et indexe le tout

3
Posez vos questions

L'IA recherche dans vos documents et répond en citant les passages pertinents

Pour aller plus loin avec le RAG, consultez notre guide complet RAG local avec Ollama et découvrez le Agentic RAG pour des performances encore meilleures.

⚖️ Comparatif : Open WebUI vs les alternatives

Fonctionnalité Open WebUI AnythingLLM LobeChat Jan
RAG intégré ✓ Natif ⚠ Plugin
Multi-utilisateurs ✓ Natif
Recherche web
Function calling
Génération d'images
Voix (STT/TTS) ⚠ STT seul
Facilité d'installation 1 commande Docker 1 commande Docker npm / Docker App desktop
GitHub Stars 75K+ 35K+ 55K+ 30K+

💰 Le calcul qui fait réfléchir

☁️ ChatGPT Team (10 personnes)
Abonnement mensuel25 $ × 10 = 250 $/mois
Coût annuel3 000 $/an
Sur 3 ans9 000 $
+ vos données sur les serveurs d'OpenAI
🏠 Open WebUI + mini PC
Mini PC 32 Go RAM~500 €
Électricité (3 ans)~150 €
Logiciel0 €
Total sur 3 ans~650 €
100% de vos données restent chez vous
Économie sur 3 ans : ~7 500 €

🔄 Gestion des modèles depuis l'interface

Plus besoin du terminal. Open WebUI permet de télécharger, supprimer et gérer vos modèles directement depuis l'interface web :

⬇️
Télécharger

Tapez le nom du modèle, cliquez "Pull". Barre de progression en temps réel.

🔄
Switcher

Menu déroulant en haut du chat. Changez de modèle en un clic.

🛠️
Personnaliser

Créez des "Modelfiles" : system prompt, température, contexte personnalisé.

Modèles recommandés pour Open WebUI :

Llama 3.1 8B
Usage général, rapide
~5 Go VRAM
Mistral Nemo 12B
Excellent en français
~8 Go VRAM
Codestral 22B
Programmation, code review
~14 Go VRAM
Llama 3.1 70B Q4
Qualité maximale
~40 Go VRAM

Consultez notre guide du meilleur modèle pour le RAG en 2026 pour choisir le bon modèle selon votre usage.

🎮 Démo interactive : Open WebUI simulé

Découvrez l'expérience Open WebUI sans l'installer. Tapez un message, changez de modèle, ou testez le mode RAG.

Open WebUI — localhost:3000
VRAM: |
Modèle :
📄 Mode RAG actif — 847 chunks indexés

🔧 Fonctionnalités avancées

Function Calling : créez des outils personnalisés

# Exemple d'outil personnalisé pour Open WebUI
# À placer dans Settings > Functions
class Tools:
def get_weather(self, city: str) -> str:
"""Obtenir la météo d'une ville"""
# Appel API météo ici
return f"Météo à {city} : 22°C, ensoleillé"
def calculate(self, expression: str) -> str:
"""Calculer une expression mathématique"""
return str(eval(expression))

L'IA appelle automatiquement ces fonctions quand l'utilisateur pose une question pertinente. Pas besoin de configuration supplémentaire.

API compatible OpenAI

Open WebUI expose une API compatible OpenAI. Vous pouvez l'utiliser avec n'importe quel outil qui supporte l'API OpenAI :

# Utiliser Open WebUI comme backend OpenAI
import
openai
client = openai.OpenAI(
base_url="http://localhost:3000/api",
api_key="votre-token-open-webui"
)
response = client.chat.completions.create(
model="llama3.1:8b",
messages=[{"role": "user", "content": "Bonjour !"}]
)

💻 Matériel recommandé

Open WebUI tourne sur n'importe quel PC, mais un GPU accélère drastiquement les réponses. Vérifiez si votre PC peut faire tourner l'IA locale.

💡 Astuce : vous pouvez installer Open WebUI sur un mini PC dans votre salon et y accéder depuis n'importe quel appareil de la maison via le navigateur. Toute la famille en profite ! Consultez notre guide upgrade IA pour choisir la bonne config.

Questions fréquentes

Oui, 100% gratuit et open source (licence MIT). Pas de version payante, pas de fonctionnalités verrouillées, pas de publicités. Le seul coût est le matériel (votre PC ou un mini PC) et l'électricité pour le faire tourner.
Non, Open WebUI fonctionne aussi en mode CPU. Mais les réponses seront plus lentes (~5 tok/s au lieu de ~40 tok/s avec un GPU). Pour une expérience fluide, une RTX 3060 12 Go est le minimum recommandé. Voir notre guide meilleur GPU pour l'IA locale.
Oui ! Open WebUI supporte à la fois les modèles locaux (Ollama) et les APIs cloud (OpenAI, Anthropic, Google). Vous pouvez même mixer les deux : utiliser un modèle local pour les questions courantes et GPT-4/Claude pour les tâches complexes. Tout passe par la même interface.
Oui, si vous utilisez uniquement des modèles locaux via Ollama, aucune donnée ne quitte votre machine. Tout est traité en local : le modèle, les embeddings, le RAG, les conversations. C'est la solution idéale pour les données sensibles. Voir notre guide RAG sans internet pour aller encore plus loin.