Was ich in letzter Zeit immer häufiger zu lesen bekomme und mir jedesmal wieder aufs Neue Kopfschmerzen bereitet ist, wenn einer fragt, wie man Daten "binär" speichert.
Zuerst einmal, was bedeutet binär?
Binär ist doch einfach eine Betrachtungsweise/Darstellungsform eines Wertes.
Man kann Zahlen binär, hexadezimal und in unserem allgegenwärtlichen System - dem 10er System (dezimal) - darstellen.
'A' (
Ascii-Darstellung)
65 (Dezimale Darstellung)
0x41 (Hexadezimale Darstellung)
1000001 (Binäre Darstellung)
--> des ein und selben Wertes!
Folglich ist es totaler Unfug, diese Wörter in Bezug aufs Speichern zu verwenden - zumindest meiner Meinung nach.
Will man zum Beispiel einen String, oder noch genauer in diesem Fall Char, 'A' speichern, so steht in der Datei, in der man es dann letzendlich gespeichert hat, der Wert, der Binär auf die Festplatte ~reinmagnetisiert wurde, 65 (nach Definition). Unsinnig wäre die Annahme, wenn man davon ausgeht, dass man nicht "binär" gespeichert hat, sondern in irgendeiner anderen Art und Weise, die Daten dann als
Ascii drin stehen -> "65" (Übrigens, das hier belegt einen doppelt so großen Speicher).
Wie steht ihr dazu?
Irgendwie will ich hiermit dieses Missverständnis klären. Falls einer es besser artikulieren könnte, wäre ich dieser Person gegenüber sehr dankbar.
MfG