У таблиці Unicode використовується 2 байти, тому можна сказати, що 1 символ у компютері займає 1 або 2 байти.
1 символ компютерного алфавіту важить8 бітів.
І по таблиці брати двійковий код і знаходити за ним потрібний символале чому кожен символ обовязково займає 1 байт? Навіщо записувати число саме ось так 0000001, а не просто 1 тим самим зайнявши всього 1 біт інформації та по таблиці взяти йому відповідний символ.