Schwierigkeit: Leicht · Dauer: 30–50 Min · Ziel: Uptime-Kuma-Checks und Benachrichtigungen so konfigurieren, dass echte Störungen schnell sichtbar werden.
Kurzproblem und Zielbild
Zu aggressive Monitoring-Defaults erzeugen Alarmrauschen. Ziel ist ein stabiles Signal-Rausch-Verhältnis mit klaren Intervallen, Timeouts und sauberen Notification-Profilen.
Voraussetzungen
- Laufende Uptime-Kuma-Instanz
- Mindestens ein Notification-Channel (Mail/Discord/Telegram)
- Liste kritischer Dienste
Schnellstart (funktionierende Basis)
docker ps | grep uptime-kuma
# UI öffnen und 3 kritische Monitore anlegen
# Intervall 60s, Retry 2, Timeout 16s
Schritt-für-Schritt Umsetzung
1) Monitore nach Kritikalität gruppieren
# Kritisch: Auth, Reverse Proxy, DNS
# Wichtig: Medien/Tools
# Nice-to-have: Nebenservices2) Timeouts/Retry je Diensttyp
# HTTP intern: timeout 10-16s
# Extern über WAN: timeout 20-30s
# retry sparsam nutzen, sonst Alarmflut3) Wartungsfenster definieren
# Geplante Updates als Maintenance in Kuma eintragen4) Alert-Routing trennen
# Kritisch -> sofort Push
# Nicht-kritisch -> gesammelt / zeitversetzt
Validierung / Checks
# Testausfall simulieren (Dienst stoppen)
# Prüfen: Alert kommt 1x, Recovery-Message folgt
# Danach Dienst wieder starten
Troubleshooting
Zu viele Fehlalarme
# Timeout erhöhen, Retry reduzieren, DNS prüfenRecovery-Meldung fehlt
# Notification-Integration + Event-Typen prüfen
Fazit
Gutes Monitoring ist nicht „mehr Monitore“, sondern bessere Priorisierung. Nächster Schritt: monatlich die noisiesten Checks identifizieren und nachschärfen.





