Accéder au contenu principal

Guide d'installation d'Open WebUI : lancez votre propre interface de type ChatGPT en local

Apprenez à installer et utiliser Open WebUI pour exécuter des modèles d'IA locaux via une interface à la ChatGPT. Inclut des étapes de configuration, des conseils et des cas d'usage réels.
Actualisé 17 avr. 2026  · 13 min lire

Hésitez-vous à envoyer vos invites vers un serveur cloud ? La sécurité est une préoccupation majeure, et à juste titre.

Vous choisissez ChatGPT ou Claude, vous saisissez une invite, et la requête part vers l'infrastructure de quelqu'un d'autre. Dans la plupart des cas, cela convient. Mais si vous travaillez avec des données sensibles ou du code propriétaire, le risque existe. De plus, les interfaces cloud vous enferment dans des modèles spécifiques, des limites de taux et des forfaits tarifaires.

Open WebUI est une interface auto-hébergée, accessible depuis le navigateur, pour interagir avec des LLM. C'est l'interface de ChatGPT, mais qui tourne sur votre propre machine. Elle se connecte à Ollama, à des API compatibles OpenAI et à des modèles locaux, afin que vos données restent chez vous.

Dans cet article, je vous guide pas à pas pour installer Open WebUI avec Docker, le connecter à un modèle local et l'utiliser pour des cas concrets comme la conversation et la génération de code.

Qu'est-ce qu'Open WebUI et comment ça marche ?

Open WebUI est une interface de chat dans le navigateur pour interagir avec des LLM — similaire à ChatGPT, mais exécutée sur votre propre machine.

L'architecture est on ne peut plus simple : une interface front-end à laquelle vous accédez dans votre navigateur, et un back-end qui se connecte à des fournisseurs de modèles comme Ollama ou toute API compatible OpenAI.

Autrement dit, Open WebUI n'exécute pas les modèles : il discute simplement avec le back-end que vous lui indiquez.

Voyez-le comme la porte d'entrée universelle de votre environnement IA local.

Vous pouvez donc changer de back-end de modèle sans toucher à l'interface, et faire tourner l'interface sur une machine tandis que le modèle tourne sur une autre.

Avec Open WebUI, vous bénéficiez de :

  • Une interface de chat pour envoyer des invites et lire les réponses
  • Le téléversement de fichiers pour injecter des documents dans vos conversations
  • La prise en charge multi-modèles pour passer d'un modèle à l'autre dans la même interface
  • L'historique des conversations pour revenir et poursuivre des sessions précédentes

Si vous avez utilisé ChatGPT ou Claude, l'interface vous semblera familière. La différence se joue en coulisses. Voyons cela de plus près.

Comment installer Open WebUI (méthode Docker)

Docker est la façon la plus rapide de faire tourner Open WebUI, tout en l'isolant complètement.

Prérequis

Vous devez avoir Docker installé sur votre machine. Si ce n'est pas le cas, récupérez-le sur le site officiel de Docker.

Ollama est facultatif à ce stade. Si vous souhaitez connecter immédiatement Open WebUI à un modèle local, installez d'abord Ollama et téléchargez au moins un modèle. Si vous voulez simplement lancer l'interface et la connecter plus tard, passez cette étape pour l'instant.

Étapes d'installation

Exécutez cette commande pour récupérer l'image Open WebUI et démarrer le conteneur :

docker run -d \
  -p 3000:8080 \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

Téléchargement de l'image Open WebUI

Téléchargement de l'image Open WebUI

Voici à quoi servent les indicateurs :

  • d exécute le conteneur en arrière-plan

  • p 3000:8080 fait correspondre le port 8080 à l'intérieur du conteneur au port 3000 sur votre machine

  • v open-webui:/app/backend/data crée un volume Docker pour pérenniser vos données : conversations, paramètres et fichiers téléversés subsistent après les redémarrages du conteneur

  • -restart always relance le conteneur s'il s'arrête ou si votre machine redémarre

  • -name open-webui attribue un nom explicite au conteneur pour le référencer ensuite

Premier lancement

Une fois le conteneur démarré, ouvrez votre navigateur et rendez-vous sur http://localhost:3000.

Au premier accès, Open WebUI vous demandera de créer un compte administrateur. Renseignez votre nom, votre e-mail et un mot de passe.

Page de configuration d'Open WebUI

Page de configuration d'Open WebUI

Après cela, vous y êtes. L'interface se charge et vous pouvez connecter un modèle.

Page d'accueil d'Open WebUI

Page d'accueil d'Open WebUI

Comment connecter Open WebUI à Ollama

Ollama est le back-end le plus courant pour Open WebUI car il rend l'exécution de modèles locaux ultra simple : une commande pour télécharger un modèle, une autre pour le lancer.

Avant toute connexion, assurez-vous qu'Ollama tourne bien. Ouvrez un terminal et vérifiez :

ollama serve

Vérification du fonctionnement d'Ollama

Vérification du fonctionnement d'Ollama

Si Ollama s'exécute déjà en arrière-plan, un message indiquera que l'adresse est déjà utilisée. C'est bon signe : cela signifie qu'il est actif.

Ensuite, vérifiez que vous avez au moins un modèle téléchargé. Lancez :

ollama list

Modèles Ollama disponibles

Modèles Ollama disponibles

Si la liste est vide, téléchargez d'abord un modèle. Mistral est un excellent point de départ :

ollama pull mistral

Téléchargement du modèle Mistral

Téléchargement du modèle Mistral

Mistral est un très bon modèle généraliste qui s'exécute bien sur du matériel grand public.

Connecter Open WebUI à Ollama

Ouvrez maintenant Open WebUI dans votre navigateur à l'adresse http://localhost:3000. Allez dans Settings - Connections et vérifiez l'URL de l'API Ollama. Par défaut, elle est définie sur http://host.docker.internal:11434.

Configuration de l'URL de l'API Ollama

Configuration de l'URL de l'API Ollama

Cette configuration fonctionne sur Mac et Windows avec Docker Desktop. Sous Linux, remplacez host.docker.internal par l'adresse IP de votre hôte :

http://<your-ip-address>:11434

Cliquez sur Save puis actualisez la page. Si la connexion réussit, vos modèles Ollama apparaîtront dans le sélecteur de modèles en haut de la fenêtre de chat. Sélectionnez-en un et vous pouvez commencer à discuter.

Modèles disponibles

Modèles disponibles

Si aucun modèle n'apparaît, vérifiez qu'Ollama tourne et que l'URL de l'API est correcte pour votre système.

Comment utiliser Open WebUI pour le chat et le code

Une fois votre modèle connecté, Open WebUI s'utilise comme ChatGPT — avec quelques contrôles supplémentaires utiles à connaître.

Chat de base

En haut de la fenêtre, vous trouverez un menu déroulant pour sélectionner le modèle. Cliquez et choisissez celui que vous voulez utiliser. Si vous avez connecté plusieurs back-ends, tous les modèles disponibles s'affichent ici : modèles Ollama, modèles via API, tout au même endroit.

Saisissez votre invite dans le champ en bas puis appuyez sur Entrée. Les réponses s'affichent en flux continu : vous pouvez lire sans attendre la fin générale de la sortie.

Exemple de chat de base

Exemple de chat de base

Chaque conversation est enregistrée dans la barre latérale gauche. Vous pouvez renommer les conversations pour rester organisé, ou supprimer celles devenues inutiles. Cliquez sur une conversation passée pour reprendre là où vous vous étiez arrêté.

Tâches de code

Open WebUI fonctionne très bien pour générer et déboguer du code. Décrivez clairement votre besoin en langage naturel : le modèle renverra un bloc de code à copier.

Exemple de génération de code

Exemple de génération de code

Pour le débogage, collez votre code et le message d'erreur dans l'invite. Soyez précis : incluez l'intégralité de la sortie d'erreur, pas seulement le type. Plus vous fournissez de contexte, meilleure sera la réponse.

Exemple de débogage

Exemple de débogage

Pour les tâches en plusieurs étapes, évitez de tout faire tenir dans une seule invite. Découpez-les : demandez au modèle d'écrire une fonction, puis d'y ajouter la gestion d'erreurs, puis d'écrire des tests. Des invites courtes et ciblées donnent de meilleurs résultats que des pavés qui tentent de tout faire d'un coup.

Téléversement de fichiers

Open WebUI prend en charge le téléversement de fichiers dans le chat. Cliquez sur l'icône plus dans la zone de saisie et joignez un document : PDF, fichier texte, etc.

Une fois téléversé, le contenu du fichier est ajouté au contexte de la conversation. Vous pouvez demander au modèle de le résumer, d'en extraire des informations précises ou de répondre à des questions basées sur ce document.

Conversation autour d'un document

Conversation autour d'un document

Gardez à l'esprit que le modèle ne peut travailler que dans la limite de sa fenêtre de contexte — la quantité maximale de texte qu'il peut traiter d'un coup. Les très gros fichiers peuvent être tronqués : scindez-les si vous travaillez sur des documents longs.

Fonctionnalités d'Open WebUI à connaître

Open WebUI propose de nombreux réglages ; voici ceux qui vous seront vraiment utiles.

Prise en charge multi-modèles

Le sélecteur de modèle en haut de la fenêtre vous permet de changer de modèle en cours de session sans repartir de zéro. Idéal pour tester la même invite sur différents modèles : lancez-la avec Llama, puis Mistral, et comparez les sorties côte à côte.

Sélection du modèle

Sélection du modèle

Si vous évaluez des modèles pour une tâche donnée, vous gagnez beaucoup de temps.

Historique et sessions

Chaque conversation est enregistrée et listée dans la barre latérale gauche. Vous pouvez renommer les sessions de façon explicite pour éviter une liste de « New Chat » incompréhensibles.

Sessions de chat précédentes

Sessions de chat précédentes

Cela rend Open WebUI pertinent pour un travail suivi : revenir sur une session de code, poursuivre une invite inachevée ou réutiliser une conversation comme référence.

Modèles locaux vs API

Open WebUI est agnostique sur ce qui tourne derrière. Vous pouvez connecter un modèle local via Ollama pour les travaux privés et une API compatible OpenAI pour les tâches où un modèle propriétaire, de toute façon trop volumineux pour votre mémoire, est nécessaire.

Gestion des connexions OpenAI

Gestion des connexions OpenAI

Utilisez un petit modèle local pour les tâches rapides et un modèle plus grand via API lorsque c'est nécessaire (et autorisé).

Paramètres personnalisés des modèles

Vous pouvez personnaliser de nombreux aspects pour chaque LLM.

Dans les paramètres du modèle, vous pouvez ajuster l'invite système, ajouter une base de connaissances (documents) et connecter le modèle à des outils et des compétences. Vous pouvez également définir les capacités utilisées par le modèle, comme la vision, le téléversement de fichiers, ou s'il doit effectuer des recherches web :

Ajustement des paramètres du modèle

Ajustement des paramètres du modèle

Open WebUI vs ChatGPT et autres interfaces

Open WebUI n'essaie pas de remplacer ChatGPT. Il répond à un besoin différent.

Open WebUI vs ChatGPT

La différence majeure, c'est le destinataire de vos données. Avec ChatGPT, chaque invite part vers les serveurs d'OpenAI. Avec Open WebUI, tout reste sur votre machine : l'interface, le modèle et l'historique des conversations.

Le compromis porte sur les performances. GPT-5 et autres modèles cloud sont plus performants que la plupart des modèles exécutables en local. Si votre priorité est la qualité brute des résultats, le cloud s'impose. Si la confidentialité ou l'accès hors ligne priment, le local gagne.

Le coût compte aussi. ChatGPT Plus est un abonnement mensuel fixe. Open WebUI est gratuit, mais vous payez avec le matériel : une machine avec suffisamment de RAM et, idéalement, un GPU.

Open WebUI vs Ollama CLI

La CLI d'Ollama convient pour des tests rapides, mais n'est pas conçue pour un travail soutenu. Vous tapez une invite, recevez une réponse, et c'est tout. Pas d'historique, pas de téléversement de fichiers, pas de comparaison aisée de modèles sans changer de terminal.

Open WebUI offre à Ollama une interface digne de ce nom. Les modèles et le back-end sont les mêmes, mais avec la gestion des conversations, des réglages et une UI qui ne disparaît pas quand vous fermez le terminal.

Si vous utilisez déjà Ollama, ajouter Open WebUI par-dessus ne coûte rien et améliore nettement l'expérience utilisateur.

Open WebUI vs autres outils

LM Studio est une application de bureau avec un navigateur de modèles intégré et une interface de chat similaire. Bon choix si vous voulez une application graphique autonome sans Docker. L'inconvénient : elle est liée à votre poste. Open WebUI s'exécute dans un navigateur et est accessible depuis d'autres appareils de votre réseau.

text-generation-webui s'adresse davantage aux utilisateurs avancés. Il prend en charge un plus large éventail de formats de modèles et offre des réglages plus fins, mais l'installation est plus exigeante et l'interface moins intuitive. Open WebUI est un meilleur point de départ, sauf besoin spécifique de text-generation-webui.

Tableau comparatif

Référez-vous à ce tableau pour une comparaison rapide entre Open WebUI et ses alternatives :

Open WebUI face aux alternatives

Open WebUI face aux alternatives

Problèmes courants et dépannage

La plupart des problèmes avec Open WebUI relèvent de cinq catégories — et se résolvent généralement rapidement.

Le conteneur ne démarre pas

Exécutez docker logs open-webui juste après l'échec de démarrage. Les journaux vous indiqueront la cause. Neuf fois sur dix, il s'agit d'un conflit de port ou d'un problème de droits sur le volume.

Conflits de ports

Si le port 3000 est déjà utilisé sur votre machine, le conteneur ne démarrera pas. Corrigez en faisant correspondre un autre port hôte :

docker run -d -p 3001:8080 ...

Accédez ensuite à Open WebUI sur http://localhost:3001.

Impossible de se connecter à Ollama

Commencez par confirmer qu'Ollama tourne bien :

ollama serve

Puis vérifiez l'URL de l'API dans Settings - Connections. Sur Mac et Windows, elle doit être http://host.docker.internal:11434. Sous Linux, utilisez l'adresse IP de votre machine hôte. Une URL erronée est la cause la plus fréquente d'échec de connexion.

Les modèles n'apparaissent pas

Si le sélecteur de modèle est vide, Open WebUI s'est connecté à Ollama mais n'a trouvé aucun modèle. Lancez ollama list pour confirmer qu'au moins un modèle est téléchargé. Si la liste est vide, téléchargez-en un :

ollama pull mistral

Actualisez la page d'Open WebUI après le téléchargement : la liste ne se met pas à jour automatiquement.

Performances lentes

Les réponses lentes proviennent presque toujours du matériel, pas d'Open WebUI. Le modèle est trop gros pour votre RAM disponible ou vous n'avez pas de GPU. Passez à un modèle plus petit : les modèles 7B fonctionnent raisonnablement bien sur la plupart des machines modernes avec 16 Go de RAM. En configuration 100 % CPU, attendez-vous à des réponses plus lentes, quelle que soit la taille du modèle.

Bonnes pratiques pour utiliser Open WebUI

Quelques habitudes améliorent nettement l'expérience au quotidien.

  • Privilégiez les petits modèles pour la rapidité : Les plus gros ne sont pas toujours meilleurs. Un modèle de 7 milliards de paramètres répond en quelques secondes et couvre la plupart des tâches courantes. Réservez les plus grands aux besoins réels (raisonnement complexe, génération longue)
  • Surveillez la longueur des conversations : Chaque message s'ajoute au contexte à traiter par le modèle. Plus la conversation s'allonge, plus c'est lent et coûteux à exécuter. Si le sujet a trop dérivé, repartez sur une nouvelle conversation au lieu de traîner l'ancien contexte
  • Organisez vos invites : Si vous réutilisez souvent les mêmes invites, enregistrez-les. Open WebUI permet de créer des préréglages d'invites pour éviter de retaper les mêmes instructions à chaque session. Un petit effort initial fait gagner beaucoup de temps
  • Surveillez les ressources système : Les modèles locaux utilisent votre matériel. Si votre machine peine, ouvrez un moniteur système et contrôlez RAM et CPU. Faire tourner des processus lourds en parallèle d'un gros modèle allonge les temps de réponse. Fermez le superflu
  • Intégrez Open WebUI à vos outils : L'interface est un front-end. Vous pouvez chaîner les sorties à des scripts, envoyer des fichiers depuis votre éditeur via téléversement, ou utiliser Open WebUI aux côtés de votre terminal pour le code.

Quand utiliser Open WebUI

Open WebUI convient très bien à certains contextes — pas à tous. Voici quand l'utiliser :

  • Développement local — cas d'usage le plus fréquent. Si vous bâtissez une application sur un LLM et souhaitez tester des invites sans consommer des crédits d'API, Open WebUI offre une boucle de retour rapide
  • Expérimentation de modèles — le point fort d'Open WebUI. Vous pouvez télécharger plusieurs modèles avec Ollama et comparer leurs résultats sur la même invite à partir d'une interface unique, sans écrire une ligne de code
  • Flux sensibles à la confidentialité — parfaits également. Si vous travaillez avec des documents internes, des données clients ou tout contenu que vous ne souhaitez pas envoyer à un tiers, un environnement local garde tout sur votre machine. Aucune donnée ne sort, sauf si vous choisissez de connecter une API externe
  • Apprentissage et prototypage — autre scénario idéal. Si vous débutez avec les LLM et souhaitez comprendre leur comportement sans abonnement payant, Open WebUI offre un moyen peu coûteux d'expérimenter. Utile aussi pour des prototypes rapides : un modèle local suffit pour valider des idées avant d'investir dans une solution de production.

Cela dit, Open WebUI n'est pas l'outil adéquat si vous recherchez la meilleure qualité de sortie et que la confidentialité n'est pas un sujet. Une API cloud sera plus appropriée.

Conclusion

Open WebUI vous offre une interface claire et pratique pour travailler avec des modèles locaux, tout en gardant la maîtrise totale de l'environnement.

Aucune donnée ne quitte votre machine, pas de limites de taux, pas d'abonnement. Vous choisissez les modèles, vous gérez les paramètres et vous faites évoluer la configuration selon vos besoins.

Le meilleur moyen de commencer est de rester simple : lancez le conteneur Docker, connectez un petit modèle comme Llama ou Mistral, et testez quelques invites. Une fois cela en place, ajoutez d'autres modèles, paramétrez des invites système, connectez des API externes et bâtissez la suite.

Au passage, vous pouvez aussi exécuter Ollama avec Docker sans aucune installation locale. Consultez notre guide récent pour savoir comment faire.


Dario Radečić's photo
Author
Dario Radečić
LinkedIn
Scientifique de données senior basé en Croatie. Rédacteur technique de premier plan avec plus de 700 articles publiés, générant plus de 10 millions de vues. Auteur du livre Machine Learning Automation with TPOT.

FAQs

Qu'est-ce qu'Open WebUI ?

Open WebUI est une interface auto-hébergée, accessible via le navigateur, pour interagir avec des grands modèles de langage. Elle fonctionne comme ChatGPT, mais tourne entièrement sur votre machine. Vous la connectez à un back-end de modèle — comme Ollama ou une API compatible OpenAI — et toutes vos données restent locales.

Ai-je besoin d'une machine puissante pour exécuter Open WebUI ?

Open WebUI en soi est léger : ce sont les modèles qui nécessitent des ressources. Pour la plupart des modèles locaux, 16 Go de RAM constituent une base raisonnable. Un GPU améliore la vitesse de réponse, mais de petits modèles tournent correctement sur des machines uniquement CPU.

Open WebUI est-il gratuit ?

Oui, Open WebUI est open source et gratuit. Vous ne payez pas pour l'interface elle-même. Les seuls coûts concernent votre matériel et, éventuellement, l'usage d'API externes si vous connectez un fournisseur payant comme OpenAI.

Quelle est la différence entre Open WebUI et Ollama ?

Ollama est le back-end qui télécharge et exécute des modèles locaux sur votre machine. Open WebUI est le front-end : l'interface pour envoyer des invites et lire les réponses. Ollama gère le modèle, Open WebUI gère l'expérience de chat. Vous pouvez utiliser Ollama sans Open WebUI via sa CLI, mais l'expérience est bien plus limitée.

Puis-je connecter Open WebUI à l'API d'OpenAI au lieu d'un modèle local ?

Oui. Open WebUI prend en charge toute API compatible OpenAI. Allez dans Settings - Connections, ajoutez votre clé d'API et l'URL de l'endpoint, et vos modèles cloud apparaîtront dans le sélecteur aux côtés des modèles locaux. Vous pourrez alors basculer entre modèles locaux et cloud depuis la même interface.

Sujets

Learn with Datazcamp

Cursus

Développer des LLM

16 h
Développez des LLM avec PyTorch et Hugging Face, en appliquant les techniques récentes de deep learning et NLP.
Afficher les détailsRight Arrow
Commencer le cours
Voir plusRight Arrow
Contenus associés

blog

Comprendre les TPU et les GPU dans l'IA : Un guide complet

L'essor du développement de l'intelligence artificielle (IA) a entraîné une augmentation notable de la demande en matière de calcul, d'où la nécessité de disposer de solutions matérielles robustes. Les unités de traitement graphique (GPU) et les unités de traitement tensoriel (TPU) sont devenues des technologies essentielles pour répondre à ces demandes.
Kurtis Pykes 's photo

Kurtis Pykes

9 min

blog

Types d'agents d'intelligence artificielle : Comprendre leurs rôles, leurs structures et leurs applications

Découvrez les principaux types d'agents d'intelligence artificielle, comment ils interagissent avec les environnements et comment ils sont utilisés dans les différents secteurs d'activité. Comprendre les agents réflexes simples, les agents basés sur un modèle, les agents basés sur un but, les agents basés sur l'utilité, les agents d'apprentissage, etc.
Vinod Chugani's photo

Vinod Chugani

14 min

blog

Architecture de l'entrepôt de données : Tendances, outils et techniques

Apprenez l'essentiel de l'architecture d'un entrepôt de données, des composants clés aux meilleures pratiques, pour construire un système de données évolutif et efficace !
Kurtis Pykes 's photo

Kurtis Pykes

15 min

blog

Les 50 questions et réponses les plus fréquentes lors d'entretiens d'embauche chez AWS pour 2026

Un guide complet pour explorer les questions d'entretien AWS de niveau débutant, intermédiaire et avancé, ainsi que des questions basées sur des situations réelles.
Zoumana Keita 's photo

Zoumana Keita

15 min

cursor ai code editor

Tutoriel

Cursor AI : Un guide avec 10 exemples pratiques

Apprenez à installer Cursor AI sur Windows, macOS et Linux, et découvrez comment l'utiliser à travers 10 cas d'utilisation différents.

Tutoriel

Python Bonjour tout le monde : Guide de programmation pour débutants

Apprenez les bases de Python en exécutant le programme print(« Bonjour tout le monde »).
Adel Nehme's photo

Adel Nehme

Voir plusVoir plus