Bei
MSSQL (falls es interessiert) gibt es ein ähnliches Problem: Die Performance ist nur so gut wie die Aktualität der Index-Statistiken. Daher haben wir einen Dafault-Maintenance-Job, der 1x pro Woche (Sonntags, weil da sowieso nix los ist) so eine Routine am laufen: Die Datenbank wird gesäubert, die Indexe neu erstellt etc.
Die Theorie besagt, das sich die Statistiken selbst optimieren. Also ich kann das nicht bestätigen, aber vielleicht habe ich es auch nur nicht ausprobiert. Jedenfalls läuft das System ordendlich mit wöchtentlichen Indexupdates.
NB: Es kommen täglich ca. 20MB Daten hinzu. Die 'Statistik' eines Indexes verändert das natürlich nicht mehr, sodaß man den Job vermutlich nicht benötigt. Eine Index-Statistik enthält informationen über die Verteilung und Anzahl der unterschiedlichen Schlüssel relativ zur Gesamtanzahl. Wenn sich dieses Verhältnis nicht großartig ändert, kann man -meine ich- auf die Neuberechnung verzichten.