Registriert seit: 8. Dez 2015
155 Beiträge
|
AW: Warum ist bei dem negativen Integer das erste Bit 0?
28. Mär 2024, 07:56
Vielen Dank, hat beim Integer (32) funktioniert. Der Tipp von Olli73 bezüglich Variablentyp-Änderung auf NativeUInt hat das Problem gelöst, zumindest beim Integer. Somit ist das Hauptproblem gelöst, mit dem ich zur Not leben kann.
Eigentlich wollte ich das für einige Variablentypen schreiben. Ein Schüler bat mich drum gebeten, für sein Informatik-Unterricht. Die Schüler wollen überprüfen ob die Bits, mit denen sie rechnen (Binärrechnen), tatsächlich so auch im Computer gespeichert werden.
Die Version von DeddyH hat meine Version elegant verkleinert, und sie funktioniert bei Integer wunderbar.
Jetzt versuche ich das Int64. Da habe ich noch meine Probleme.
|