Gehostete GPU-Server – Kosten & Anbieter
Wenn lokale Hardware nicht ausreicht: gemietete GPU-Server als Alternative.
Preisüberblick (April 2026)
Pay-per-Hour (flexible Nutzung)
| GPU | VRAM | Günstigster Preis | Anbieter |
|---|---|---|---|
| RTX 4090 | 24 GB | ab $0,29/Std | Vast.ai |
| RTX 4090 | 24 GB | $0,34/Std | RunPod |
| A100 40 GB | 40 GB | ab $0,63/Std | RunPod/Spheron |
| A100 80 GB | 80 GB | ab $1,39/Std | RunPod |
| H100 80 GB | 80 GB | ab $2,01/Std | Spheron |
| H100 80 GB | 80 GB | $12,30/Std | AWS ❌ zu teuer |
Bare Metal / Dedicated (Monatlich)
| Server | GPU | VRAM | Preis/Monat | Anbieter |
|---|---|---|---|---|
| GEX44 | RTX 4000 Ada | 20 GB | 184 € | Hetzner 🇩🇪 |
| GEX130 | RTX 6000 Ada | 48 GB | 838 € | Hetzner 🇩🇪 |
| Custom | RTX 4090 | 24 GB | ~$450/Mo | LeaderGPU |
| Custom | RTX 4090 | 24 GB | ~€273/Mo | HOSTKEY 🇮🇸 |
Anbieter im Detail
🇩🇪 Hetzner – Beste Wahl für Europa
URL: hetzner.com/dedicated-rootserver/matrix-gpu
Standort: Nürnberg, Falkenstein, Helsinki
Vorteil: GDPR ✅, flat pricing, unlimitiertes Traffic, 100% Ökostrom
Nachteil: Nur 1 GPU pro Server, keine Spot-Instanzen
Einstieg: 184 €/Monat (GEX44)
Hetzner ist 2,5–3,3× günstiger als Hyperscaler für vergleichbare GPU-Rechenleistung.
RunPod – Flexibelste Option
URL: runpod.io
Vorteil: Ab $0,34/Std, fertige Ollama-Templates, sofort einsatzbereit
Nachteil: Daten in USA, Community-Instanzen weniger stabil
Einstieg: $0,34/Std (RTX 4090)
Vast.ai – Günstigste Preise
URL: vast.ai
Vorteil: Günstigste Marktplatzpreise (Peer-to-Peer)
Nachteil: Variable Verfügbarkeit, weniger zuverlässig
Einstieg: $0,29/Std (RTX 4090)
OVHcloud – Europäische Alternative
URL: ovhcloud.com
Vorteil: EU-Rechenzentren, flexible Abrechnung
Nachteil: Etwas teurer als Hetzner
Einstieg: ~200–400 €/Monat
Was bekommst du für welches Budget?
~184 €/Monat (Hetzner GEX44):
→ RTX 4000 Ada (20 GB VRAM)
→ phi4, qwen2.5-coder:14b, deepseek-r1:14b flüssig
→ ~20–30 Token/Sek auf 14B Modellen
~$245/Monat (RunPod RTX 4090 durchgehend):
→ Alle Modelle bis 32B
→ qwen3-coder:30b, deepseek-r1:32b
→ ~30–50 Token/Sek auf 14B
~838 €/Monat (Hetzner GEX130):
→ RTX 6000 Ada (48 GB VRAM)
→ Alle Modelle bis 70B
→ ~15–25 Token/Sek auf 70B
Empfehlung
Für persönliche/private KI und Entwicklung ist Hetzner GEX44 für 184 €/Monat die beste Option:
- GDPR-konform (Deutschland)
- Volle Root-Kontrolle, Bare Metal
- Ollama + Open WebUI in 30 Minuten eingerichtet
- Unlimitiertes Traffic, fester Monatspreis
Für gelegentliche Experimente ohne monatliche Fixkosten: RunPod RTX 4090 ab $0,34/Stunde.
Schnellsetup auf gemietem Server
# Ollama installieren
curl -fsSL https://ollama.com/install.sh | sh
# Modell laden
ollama pull deepseek-r1:32b
# Open WebUI starten
docker run -d -p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
-v open-webui:/app/backend/data \
--name open-webui \
ghcr.io/open-webui/open-webui:main
# Firewall: Nur Port 3000 freigeben (mit Passwort in Open WebUI!)
sudo ufw allow 22 # SSH
sudo ufw allow 3000 # Open WebUI
sudo ufw enable