Hallo!
Wir haben hier ein Problem mit der Replizierung einer Datenbank, in
der wir regelmäßig viele Dokumente löschen.
Täglich replizieren ca. 600 Client mit der Datenbank und senden neue
Dokumente. Das alles klappt auch wunderbar, bis zu dem Zeitpunkt,
wo wir anfangen in der Datenbank Dokumente zu archivieren bzw. zu
löschen.
Archivieren tun wir in diesem Fall immer so, dass wir 2000 Dokumente
aus der Originaldatenbank in eine Archiv-Datenbank kopieren und
dann die Dokumente aus der Originaldatenbank löschen. Dadurh ent-
stehen natürlich auch 2000 Deletionstubs. Und hier muss es irgenwo
ein Problem geben, denn plötzlich werden einige auf den Clients neu
erstellen Dokumente nicht mehr am selben Tag zu uns übertragen, ob-
wohl die Replizierung ohne Probleme durchläuft. Das ganze zieht sich
dann über Tage hin und löst sich dann von selber.
Eigentlich nicht schlimm. Leider brauchen wir die neuen Dokumente
von den Clients schon am nächsten Tag.
Was kann man da machen und woran liegt das? Wir hatten schon über-
legt die Dokument bei uns ohne Erzeugung von Deletionstubs zu löschen
(soll über API möglich sein). Das ist aber eine recht unbefriedigende
Lösung. Acha, die Datenbank enthält ca. 40.000 Dokumente - also nicht
wirklich viel.
Gruß
Torben Hansen