Ich habe ein Performance Problem, dass ich nicht restlos verstehe:
Ein LEI Job ändert Massen von Dokumenten (DB hat ca. 200k Dokumente, etwa die Hälfte wird in einem wöchentlichen Lauf durch den Job geändert).
Nun zeigt sich folgendes Verhalten:
In den ersten etwa 2 Stunden werden ca. 300 Dokumente pro Minute geändert.
Danach sackt die Performance ab. bis irgendwan nur noch ca. 30 Dokumente geändert werden.
Was habe ich bislang getan:
1. Anzahl der Update Prozesse von 1 auf 3 erhöht (Server hat 4 CPUs). ==> kein erkennbarer Effekt
2. Job in mehrere Abschnitte aufgeteilt==> Die fangen jeweils (ca. 1h Unterbrechung) wieder bei 300 an und sacken aber auch wieder ab.
Meine erste Vermutung, dass es an den Indexern lag, hat sich als falsch erwiesen - offenbar hat der Server aber ein Problem mit der Dichte der Änderungen über einen längeren Zeitraum.
Hat hierzu jemand eine Idee?
Meine Ideen:
1. Alle 10.000 Dokumente einen Sleep einbauen (das wird mein nächster Versuch sein)
2. IO genauer Monitoren, ob da noch irgendeine SystemDB gefüllt wird (die temporären Dateien liegen schon getrennt von den DBs, andere Platte, anderer Controller).
Auf dem Server ist sonst nur noch Userverkehr, also keine speziellen aufwändigeren Tasks. Keine Agenten o.ä., der Replikator ist quasi ständig Idle