Irgendwie habe ich den Eindruck meine
Unit ist mehr als nutzlos in diesem Encoding-Labyrinth.
Aber mehr als "erraten" kann man ja eh nicht. Also versuche ich jedenfalls das.
Wenn jemand eine bessere
Unit bauen kann, würde sich jemand dazu bereit erklären?
Zitat:
Findet sich ein Charakter > 127 (also außerhalb des
ASCII-Bereichs), wird unterbrochen denn es ist vermutlich
Unicode.
Was ich damit meine ist, wenn ein Zeichen > 127 vorkommt, ist es etwas anderes als
ANSI.
# Ich habe die
Unit in #1 nochmal angepasst.
# Ich habe die
Unit in #1 noch einmal angepasst. Rückgabewert ist jetzt TEncoding.
Ich habe lange getestet. Wenn ich nicht gerade in den Kopfdaten einer Datei rumwühle und komische Werte eintrage, wird die Datei immer korrekt gelesen.
# Einen Fall habe ich doch gefunden. Wenn man eine utf-8-Datei ohne BOM prüft und kein Default-Encoding angibt, kommt natürlich
ANSI zurück und é kann nicht dargestellt werden.
Deswegen gibt es nun eine überladene Version von TEncodingDetect.GetFileEncoding().