Lokale & Cloud KI – Praxis-Guide für Ubuntu
Dieses Wiki fasst alles zusammen was du brauchst, um KI-Modelle lokal zu betreiben, in Entwicklungsumgebungen zu integrieren und optimal zu nutzen – mit Fokus auf Ubuntu 24.04 und Open-Source-Tools.
Kapitelübersicht
| Bereich | Inhalt |
|---|---|
| Grundlagen | Tokens, Kontext-Fenster, VRAM – was bedeutet das alles? |
| Lokale KI mit Ollama | Installation, Modelle, Open WebUI einrichten |
| Cloud KI im Vergleich | Free Tiers, Limits, API-Integration in Open WebUI |
| IDE Integration | Claude Code, JetBrains Plugin, GoLand einrichten |
| Agenten & Rules | CLAUDE.md, Slash Commands, Sub-Agenten, OpenClaw |
| Modelle im Vergleich | MMLU, HumanEval, welches Modell für welchen Use-Case |
| Hardware | GPU, VRAM, Mini PCs, Heimserver, gemietete Server |
Schnellstart
# Ollama installieren
curl -fsSL https://ollama.com/install.sh | sh
# Erstes Modell laden
ollama pull phi4
# Open WebUI starten
docker run -d -p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
-v open-webui:/app/backend/data \
--name open-webui \
ghcr.io/open-webui/open-webui:main
Danach: http://localhost:3000