Open WebUI
Par Open WebUI • Lancé en 2023
Interface IA auto-hébergeable pour connecter modèles locaux/cloud via API compatibles OpenAI, avec extensions, outils et RAG.
À propos de Open WebUI
Open WebUI est une interface IA auto-hébergeable (self-hosted) qui centralise l’accès à des modèles locaux et cloud via des protocoles compatibles OpenAI. Elle permet de connecter rapidement des serveurs comme Ollama, vLLM, LM Studio ou des fournisseurs comme OpenAI et Anthropic (via endpoints compatibles), afin de discuter, tester des paramètres, et organiser des conversations dans un environnement contrôlé. L’outil vise les particuliers, équipes et organisations qui veulent garder la maîtrise de leurs données et de leur infrastructure tout en profitant d’une UX moderne.
La plateforme intègre des fonctions orientées productivité et intégrations: gestion de connexions API (clés/URLs), endpoints de type “chat completions” compatibles OpenAI, et un système d’extensions (tools/plugins) incluant des scripts Python exécutés côté serveur. Elle supporte aussi des “Tools” natifs comme la recherche web, le fetch d’URL, la mémoire et le RAG (requêtes sur documents). Open WebUI s’adresse aux makers, développeurs, équipes produit et entreprises cherchant un hub unique pour expérimenter, industrialiser et sécuriser l’usage de LLMs.
Fonctionnalités
Connaissez-vous un outil IA qui devrait figurer ici ?
Aidez-nous à enrichir notre annuaire en soumettant gratuitement un nouvel outil.