Jetzt machst du mich aber spontan unglücklich, p80286. Ich habe soeben folgende Prozedur im Testlauf, die da alle 10 Sekunden* vom selben Programm ausgeführt wird, dass auch die originale Historie schreibt, und für das Pollen meiner Energiewerte sorgt:
Delphi-Quellcode:
procedure TForm1.MakeGranularValues;
procedure ProcessGranularity(aTableName, aPriorGranularityTableName: String; aTimeDeltaInMinutes: Integer);
var
d1, d2: TDateTime;
begin
// Einen Zeitpunkt finden, zu dem der End-Zeitpunkt d2 in der Vergangenheit liegt, und
// dessen Start-Zeitpunkt dem Raster gehorcht, dass entsteht, wenn man ab 00:00:00 des Tages an
// in "aTimeDeltaInMinutes" Schritten hochgezählt hat. Beginne mit 0 Uhr des gestrigen Tages, da
// 24 Stunden das größte Raster sind, und der gestrige Tag somit noch erfasst wird.
d1 := Trunc(Now)-1;
d2 := IncMinute(d1, aTimeDeltaInMinutes);
while (d2 < Now) do
begin
d1 := d2;
d2 := IncMinute(d1, aTimeDeltaInMinutes);
end;
d1 := IncMinute(d1, -aTimeDeltaInMinutes);
d2 := IncMinute(d2, -aTimeDeltaInMinutes);
Qry.SQL.Text := 'SELECT COUNT(valueID) FROM '+aTableName+' WHERE vdate BETWEEN :d1 AND :d2';
Qry.ParamByName('d1').AsDateTime := d1;
Qry.ParamByName('d2').AsDateTime := d2;
Qry.Open;
if Qry.Fields[0].AsInteger = 0 then
begin
Qry.Close;
Qry.SQL.Text :=
'INSERT INTO '+aTableName+' (vdate, valueID, maxValue, meanValue) '+
'(SELECT :d1, valueID, MAX(maxValue), SUM(meanValue)/COUNT(meanValue) '+
'FROM '+aPriorGranularityTableName+' '+
'WHERE (vdate BETWEEN :d1 and :d2) '+
'GROUP BY valueID)';
Qry.ParamByName('d1').AsDateTime := d1;
Qry.ParamByName('d2').AsDateTime := d2;
Qry.Execute;
end
else
begin
Qry.Close;
end;
end;
begin
ProcessGranularity('history_g10min', 'history', 10);
ProcessGranularity('history_g30min', 'history_g10min', 30);
ProcessGranularity('history_g1h', 'history_g30min', 60);
ProcessGranularity('history_g6h', 'history_g1h', 360);
ProcessGranularity('history_g24h', 'history_g6h', 1440);
end;
Klar ist, dass wenn diese irgendwo mal auf einen Hammer läuft, dann kummulierte Daten fehlen. Jedoch werde ich da noch diverse Schutzblöcke einarbeiten, und es spricht nichts dagegen im Bedarfsfall eine komplette Rekunstruktion der kummulierten Tabellen von der originalen Historie an zu bilden. Oder gar nur punktuelle für fehlende Zeiträume.
Bei Views wüsste ich jetzt nicht so genau, wie ich die Anforderung erfüllen sollte, die in dem längeren Kommentar beschrieben ist. Und Views werden doch auch dynamisch ausgeführt oder? Die Abfrage auf die originalen "feinen" Daten würde damit ja trotzdem nötig werden. Zwar dann verdichtet über's Netzwerk gehen, aber der Server hätte dennoch die volle Arbeit zu tragen. Bin da skeptisch.
*) Alle 10min sollte genügen, zum testen und schauen wie es sich auf die Performance auswirkt hab ich's mal schneller gemacht
"When one person suffers from a delusion, it is called insanity. When a million people suffer from a delusion, it is called religion." (Richard Dawkins)