Den Speicherplatz sehe ich nicht als Problem. Wir haben hier in einer aktuellen Anwendung
XML als Projektformat, das aber (zusammen mit einigem anderem Zeug) komprimiert wird, im Standard-ZIP-Format, so dass man es einfach im Explorer öffnen kann. Da lassen sich auch zig MB an
XML in Sekundenbruchteilen laden (und sind als ZIP natürlich auch winzig, Komprimierungsraten von über 95% im Normalfall, den weitaus größeren Anteil haben die Binärdateien, die wir dazuspeichern müssen). Dabei handelt es sich natürlich nicht um "dumme" Daten in Form von Tabellen, sondern um eine komplexe Baumstruktur, die dann so oder so komplett im Speicher gehalten werden muss. Geht es nur um sehr große Tabellen, die man nicht im Speicher halten kann, steht man natürlich vor dem Positionierungsproblem.
Zitat:
Es gibt halt auch genügend Fälle, in denen ein binäres oder sonst wie gestaltetes Format mindestens genau so brauchbar, und in der Regel auch deutlich schneller zu verarbeiten ist.
Ja, und dann hat man für jede Art von Datei ein eigenes Dateiformat, für das man extra einen Parser schreiben muss. Dadurch gewinnt man doch nichts. Ich sehe das immer bei einem etwas älteren, in C++ geschriebenen Produkt bei uns und dem aktuellen, an dem ich arbeite. Beim alten muss man für jede noch so kleine Änderung an den Datenstrukturen auch die Routinen fürs Schreiben und Laden ändern. Beim aktuellen Produkt muss man meistens nichts ändern, in seltenen Fällen ein entsprechendes Attribut setzen, aber nie den Code anfassen. Und trotzdem kann man eine gespeicherte Datei problemlos angucken und analysieren, ohne ein entsprechendes Tool einsetzen zu müssen. Das sehe ich schon alles als gewaltigen Vorteil, der mit Hype nichts mehr zu tun hat.