Ich verstehe nicht warum die Diskussion immer wieder dahin abgleitet ob es sinnvoll ist so viele Daten zu laden. Ich habe nie gesagt, dass irgendjemand durch 100000 oder gar 1.4 Mio Datensätze blättern will.
Weil das ja nun mal dein größtes Problem darstellt. Und logischerweise halten alle das für nicht zweckmäßig.
Als ich das Pulldown vor 30 Jahren eingeführt habe, hat man in SAP noch mühsam über Filter gesucht. Vor ca. 10 Jahren hat Google angefangen nicht nur das anzuzeigen was genau dem Suchbegriff entspricht sondern eine "unscharfe" Suche.
Als du das Pulldown vor 30 Jahren eingeführt hat, dass das ggf. einmal aufgrund der Datenmenge zu einem Problem führen könnte. Den von SAP schon, deswegen haben die einen Filter genommen.
Für eine "unscharfe" Suche benötigt aber auch Google erst einmal irgendwelche Suchparameter, ansonsten wäre das ein Schuss ins Blaue.
Ich habe dir ja oben eine Thread gezeigt, mit dem du sofort nach Programmstart die Daten laden kannst. Da Thread, dürften da schon mal keine unschönen Zwangspausen im Hauptprogramm auftretet. An der Übertragungsdauer der Daten ändert das jedoch nichts. Und da du eben 1,4 MIo Information übertragen willst, die mal grob geschätzt je Datensatz 15-x Zeichen enthalten, sind das schon mal 20MB, und das kann je nach Übertragungsweg eben eine gewisse Zeit dauern.
Da dein Programm am Übertragungsweg nichts ändern kann, dir die Zeit aber nicht gefällt, muss an den Parametern schrauben, die du beeinflussen kannst. Und das wäre ja in erster Linie die Datenmenge.