Hi himitsu,
wollte Deinen Post nicht übergehen, sondern für den TE abkürzen
Zitat von
himitsu:
Hab inzwischen auch mal reingesehn:
EncodeBinary und DecodeBinary arbeiten nur mit dem Typ "Binary", welcher als AnsiString, bzw. einem RawByteString (welcher auch einem AnsiString entspricht) deklariert und für "binäre" Daten gedacht ist.
Tja und bei String/UnicodeString > Binary/AnsiString > String/UnicodeString müssen zwangsweise Unicodeinformationen verloren gehn.
Allerdingt gibt der Compiler bei sowas standardmäßig eine Warnung aus.
Absolut Richtig. Irgendwann werd ich die Sache mal als Overload ins
DEC 5.3 packen (und ein bisschen Refactoring betreiben), aber im Moment fehlt mir dafür die Zeit...
Gruß,
Assertor