Moin !
Hulla, habe das We hier nicht rein gesehen und nun entstehen hier fast Grundsatzdiskussionen
Ich möchte aber nochmal auf den Kern meines Problems zurück kommen.
Mein Beispiel ganz zu Anfang:
Delphi-Quellcode:
for I := 1 to Amount do begin
Inc(Counter);
DBQuery.SQL.Text := 'INSERT Into ' + Table + ' (ID, PROP01, PROP02, PROP03, PROP04, PROP05, PROP06, PROP07, PROP08, PROP09, PROP10) VALUES (:wert1, :wert2, :wert3, :wert4, :wert5, :wert6, :wert7, :wert8, :wert9, :wert10, :wert11);';
DBQuery.Prepare;
DBQuery.Params[0].AsInteger := Counter;
DBQuery.Params[1].AsFloat := Random(10000);
...
DBQuery.Params[10].AsFloat := Random(10000);
DBQuery.ExecSQL;
end;
... war auch nur ein Beispiel und trifft nicht den Kern meines Problems.
Die For Schleife dient hier ja nur zum Erzeugen von Last. In Wirklichkeit aber kommen die Daten bei uns von Geräten. Die Geräte senden (um es einfach zu machen) Spannung, Strom, Ladung. Und das mehr oder minder schnell.
Wir haben also nicht einen Block an Daten den ich auf einen Schlag wegschreiben möchte (was man dann ja über eine Transaktion könnte), sondern wir haben eher eine stetige Datenmenge die permanent weggeschrieben werden muss.
Ich sehe da im Moment zwei Varianten:
1) Man schreibt jeden Datensatz sofort bei Erscheinen in die
DB. Das (so verstehe ich das hier) erzeugt aber eine Menge Overhead.
2) Ich könnte Datensätze erst puffern und dann z.B. immer 10 Datensätze mittels Transaktion wegschreiben. Das würde den Overhead auf der
DB verringern, aber mehr Aufwand am Client bedeuten.
Wie seht ihr das?