Zum Inhalt

Lokale & Cloud KI – Praxis-Guide für Ubuntu

Dieses Wiki fasst alles zusammen was du brauchst, um KI-Modelle lokal zu betreiben, in Entwicklungsumgebungen zu integrieren und optimal zu nutzen – mit Fokus auf Ubuntu 24.04 und Open-Source-Tools.

Kapitelübersicht

Bereich Inhalt
Grundlagen Tokens, Kontext-Fenster, VRAM – was bedeutet das alles?
Lokale KI mit Ollama Installation, Modelle, Open WebUI einrichten
Cloud KI im Vergleich Free Tiers, Limits, API-Integration in Open WebUI
IDE Integration Claude Code, JetBrains Plugin, GoLand einrichten
Agenten & Rules CLAUDE.md, Slash Commands, Sub-Agenten, OpenClaw
Modelle im Vergleich MMLU, HumanEval, welches Modell für welchen Use-Case
Hardware GPU, VRAM, Mini PCs, Heimserver, gemietete Server

Schnellstart

# Ollama installieren
curl -fsSL https://ollama.com/install.sh | sh

# Erstes Modell laden
ollama pull phi4

# Open WebUI starten
docker run -d -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
  -v open-webui:/app/backend/data \
  --name open-webui \
  ghcr.io/open-webui/open-webui:main

Danach: http://localhost:3000