Zitat von
Assarbad:
Die Darstellung hexadezimal hat eine andere Bewandnis!
Denk mal nach. 8bit = 1 Byte! Kleinste zusammenhängende Einheit in einem PC. 8bit = 2 Nibble (1 Nibble = 4bit)
Ein Hexadezimal-Digit stellt exakt ein Nibble dar. Zwei Nibble = 1 Byte = 2 Digits = 1 Byte ...
Das erleichtert Rechnen/Umrechnen und die Ansicht von Adressen etc - will heissen ... es geht nicht (allein) um Platzersparnis.
[...]außerdem kann sich ja keiner 64 ausgedachte Zeichen merken, oder hab ich nen Rechenfehler? 26 Buchstaben + 10 Ziffern = 36 Zeichen ... wo ist der Rest?
naja, man könnte zwischen klein-und groß buchstaben unterscheiden, dann gibts da ja noch die Ä etc...
und warum nimmt man dann nicht z.b. Zahlen zur basis 128, sprich ein digit wäre genau ein byte? was wäre im vergleich zu den hex-zahlen nachteilhaft?