Cloud KI – Free Tier Vergleich
Übersicht der kostenlosen Nutzung der wichtigsten KI-Dienste (Stand April 2026).
Hinweis: Die genauen Limits werden von den meisten Anbietern bewusst nicht kommuniziert und variieren nach Nachrichtenlänge, Modell und Serverlast.
Free Tier im Überblick
| KI | Kostenloses Modell | Nachrichten (ca.) | Besonderheit |
|---|---|---|---|
| ChatGPT | GPT-5.4 (limitiert) | ~10–15/Tag auf Flagship | Rolling Window, danach Downgrade auf günstigeres Modell |
| Claude | Sonnet 4.6 | ~20–45/Tag | Variiert nach Nachfrage und Serverlast |
| Gemini | Gemini 3 Flash | ~20/Tag | Limits wurden Dezember 2025 deutlich reduziert |
| Grok | Grok 3 (basic) | ~10/Stunde | Bessere Modelle nur mit X Premium ($8/Monat) |
| Copilot | GPT-5-Familie | Unlimitiert (Basis) | Kein Account nötig für Basis-Chat |
| Perplexity | Eigenes Modell | ~5 Pro-Suchen/Tag | Stärke liegt in Echtzeit-Suche mit Quellen-Zitaten |
Free Tiers sind für Nutzer mit unter ~10 Anfragen täglich noch praktikabel.
Einbindung in Open WebUI
Was ist möglich?
Kostenlose Webseite nutzen → Kein Open WebUI möglich, immer eigene UI
API Key nutzen → In Open WebUI einbindbar, aber kostenpflichtig
Vollständig kostenlos lokal → Nur Ollama-Modelle (Llama, Phi, Qwen, DeepSeek)
Direkte Einbindung (kostenpflichtige API Keys)
Admin Panel → Settings → Connections → + Add Connection
ChatGPT: https://api.openai.com/v1
Claude: https://api.anthropic.com/v1
Gemini: https://generativelanguage.googleapis.com/v1beta/openai/
Grok: https://api.x.ai/v1
Via LiteLLM Proxy (mehrere Anbieter zentral verwalten)
LiteLLM ist ein Open-Source-Proxy der einen einheitlichen OpenAI-kompatiblen Endpunkt für hunderte Modelle von verschiedenen Anbietern bereitstellt.
# docker-compose.yml Auszug
litellm:
image: ghcr.io/berriai/litellm:latest
ports:
- "4000:4000"
environment:
OPENAI_API_KEY: "sk-..."
ANTHROPIC_API_KEY: "sk-ant-..."
GEMINI_API_KEY: "..."
Open WebUI verbindet sich dann nur mit LiteLLM, das im Hintergrund die richtigen APIs anspricht.
Via OpenRouter (günstigste pay-per-use Option)
OpenRouter bietet Zugang zu hunderten Modellen gleichzeitig – nur für tatsächliche Nutzung zahlen, kein Monatsabo:
Alle OpenRouter-Modelle (ChatGPT, Claude, Gemini, Grok, DeepSeek, Llama) erscheinen dann in der Modell-Auswahl.
Empfehlung: Hybride Strategie
Der pragmatischste Ansatz:
- Lokale Modelle (Ollama) für Alltagsaufgaben und sensible Daten
- Cloud-API nur für Aufgaben, bei denen maximale Qualität entscheidend ist