Hallo Forum,
ich hab schon einige Threads gelesen in denen es um die Größe einer
DB geht und ob die Datenbank da überhaupt noch schnell genug ist. Ich arbeite seit ein paar Jahren an einem Projekt das ich übernommen habe und hab da jetzt im Prinzip das gleiche Problem dass mir denke ich die Größe ein Problem bereitet.
Ich vermesse mit meiner Software ein Objekt das bis zu 20 Messtellen haben kann. Die Messdaten jeder Messstelle erzeugen ca. 20 KByte Daten in meiner Tabelle in der ich die Messwerte ablege. Ich habe pro Messtelle 5 Messkurven mit je ca. 1000 Messwerten und diese lege ich in jeweils einem Blob Feld ab. Das macht pro Messobjekt bis zu 400 kByte. Die Messobjekte laufen mit 30s durch die Anlage und mit kurzem Stillstand komme ich so auf ca. 2500 Messobjekte pro Tag. Somit kommen ich pro Tag auf ca. 1 GByte Daten die ich in die
DB füllen muss pro Tag.
Worum es mir jetzt geht, wie würdet ihr das machen?
Ich hatte schon überlegt die Messkurven als jpg in die
db abzulegen, aber um auf dem jpg die Messkurve zu erkennen würde das Bild größer als die Daten die ich jetzt habe. oder hat jemand noch eine andere Idee?
Was habt ihr mir für tipps dass ich das ganze trotzdem noch schnell genug ist?
In C geschrieben und schön war zuletzt Franz Schuberts 9. Symphonie