Hi,
ich habe folgendes Problem.
Ich importiere eine Textdatei mit über 10.000 Zeilen/Datensätzen (Jede Zeile enthält dabei 4 Werte durch Semikolon getrennt).
Innerhalb der Textdatei sind ganz viele doppelte Einträge vorhanden, was ich beim Import abfange, bzw. versuche abzufangen. Und hier ist jetzt mein Problem:
Ich lese jede Zeile einzeln ein und prüfe gegen eine View (per GetDocumentByKey) ob die aktuelle Zeile der Textdatei schon einmal importiert wurde. Wenn das so ist, füge ich in den bereits importieren Datensatz nur etwas ein.
Das klappt natürlich nicht, weil ich die Dokumente beim Import über das Backend anlege und somit die View während des Import noch nicht aufgebaut ist (Ergebnis: Er legt auch die doppelten Datensätze an, weil er diese noch nicht in der View findet.)
Führe ich den gleichen Import ein Zweites Mal aus, importiert er nichts weil ja alle Datensätze schon mindestens einmal vorhanden sind (so soll es ja auch sein).
Welchen Weg würdet ihr mir für solch einen Import empfehlen? Er sollte nach möglichkeit wenig Ressourcen verbrauchen