Zum Inhalt

Open WebUI – Grafische Oberfläche für Ollama

Open WebUI bietet eine ChatGPT-ähnliche Weboberfläche für lokale Ollama-Modelle.

Installation via Docker

# Docker installieren (falls noch nicht vorhanden)
sudo apt install docker.io
sudo systemctl enable --now docker

# Open WebUI starten (mit korrekter Ollama-Verbindung)
docker run -d \
  -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

Danach erreichbar unter: http://localhost:3000


Häufiges Problem: Modelle werden nicht angezeigt

Das Problem tritt auf weil Docker-Container localhost nicht direkt erreichen können – localhost im Container ist der Container selbst, nicht das Host-System.

Diagnose

# Lauscht Ollama auf allen Interfaces?
ss -tlnp | grep 11434
# Muss zeigen: 0.0.0.0:11434 (nicht 127.0.0.1!)

# Verbindung vom Container aus testen
docker exec open-webui curl http://host.docker.internal:11434/api/tags

Lösung: Ollama auf alle Interfaces binden

sudo systemctl edit ollama
[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"
sudo systemctl daemon-reload
sudo systemctl restart ollama

Docker-Gateway-IP ermitteln

docker network inspect bridge | grep Gateway
# Typisch: 172.17.0.1

Ollama-Verbindung in der WebUI konfigurieren

  1. http://localhost:3000 öffnen
  2. Admin Panel → Settings → Connections
  3. Ollama API URL eintragen: http://host.docker.internal:11434
  4. Refresh-Symbol klicken → Grüner Haken = Verbindung OK ✅

Modelle direkt aus der WebUI laden

Nach erfolgreicher Verbindung:

Admin Panel → Settings → Models → Pull a model from Ollama.com

Eingabe:  phi4
          deepseek-r1:14b
          qwen2.5-coder:14b
→ Enter → Download läuft direkt durch

Mehrere Ollama-Endpunkte verbinden

Ideal für Cluster-Setups mit mehreren Maschinen:

Admin Panel → Settings → Connections → + Add Connection

Node 1: http://192.168.1.101:11434  (Chat-Modell)
Node 2: http://192.168.1.102:11434  (Coding-Modell)
Node 3: http://192.168.1.103:11434  (Embedding)

Cloud-KI-APIs einbinden (kostenpflichtig)

Open WebUI unterstützt OpenAI-kompatible APIs:

Anbieter URL
OpenAI https://api.openai.com/v1
Anthropic (Claude) https://api.anthropic.com/v1
Google (Gemini) https://generativelanguage.googleapis.com/v1beta/openai/
xAI (Grok) https://api.x.ai/v1
OpenRouter https://openrouter.ai/api/v1

⚠️ Diese Einbindung erfordert kostenpflichtige API-Keys. Die Free-Tier-Weboberflächen der Anbieter können nicht in Open WebUI eingebunden werden.