Чому дорівнює один символ?

0 Comments

У кодуванні Unicode один символ займає 16 біт пам'яті, що відповідає 2 байтам (1 байт = 8 біт).

Один символ кодування UTF-16 представлений послідовністю двох байт або двох пар байт.

Розширена ASCII дозволяє використовувати всі 8 біт для кодування. У таблиці Unicode використовується 2 байти, тому можна сказати, що 1 символ у комп'ютері займає 1 або 2 байти.

Related Posts