"Korrekt" kommt darauf an, welche Definition du nimmst.
https://en.wikipedia.org/wiki/Kibibyte
KiB = KibiByte
KB = KiloByte
MiB = MebiByte (alle sind BI, darum nicht Megi)
MB = MegaByte
Das Problem ist einfach, dass man sich zwar schlau dachte "Kilo machen wird NUN auch zu 1000"
und erfinden was Neues, für 1024,
ABER da es massenhaft täglich genutzte Programme gibt, die weiterhin K=1024 rechnen,
hätte man das einfach andersrum lösen sollen "Kilo
in Binär weiterhin 1024" und das Neue mit 1000, denn so wäre es immer eindeutig.
Wenn ich nun in meinem Programm mit dem neuen MB arbeite, dann weiß keiner ob ich 1000 oder 1024 nutze.
Zitat:
Seit Ende der 60er Jahre wird ja fälschlich 1024 Byte
Das ist so nicht ganz korrekt.
OK, in der Dezimaldarstellung passt KILO nicht in ein 10er-System,
1000 (1000^1) = 1 Kilo
1000000 (1000^2) = 1 Mega
1000000000 Bit (1000^3) = 1 Giga
aber binär stimmt es.
10 Bit (10*1) = 1 Kilo
20 Bit (10*2) = 1 Mega
30 Bit (10*3) = 1 Giga
Lösung: Der Mensch braucht 4 Finger pro Hand (siehe Zeichentrick: 3+1) und schon können wir viel besser binär rechnen. (4+4 = 8 Bit)
OK, es gibt eine Branche, die schon fast seit Anfang an mit 10 rechnet. (Festplattenhersteller, damit ihre Platten größer wirken ... eine 1 ExaByte ist bei denen 13% kleiner
)