UNICODE ist eine 16Bit Codierung, d.h. 2Byte pro Zeichen, immer!
Unicode hat mit 16Bit erstmal gar nichts zu tun.
Unicode hat einfach nur das Ziel, jedem möglichen Zeichen einen "Code", eine Zahl zuzuordnen. Wie dieser Code dann aufgeschrieben bzw. gespeichert wird (UTF8, UTF16-BE, UTF16-LE, UTF32, ...) ist im Grunde zweitrangig.
Für die allermeisten Zeichen reichen 16 Bits aus, daher wird UTF16 oft mit
Unicode synonym verwendet - eben weil man mit dieser Codierung praktisch alles schön mit "2 Bytes pro Zeichen" darstellen kann.
The angels have the phone box.