Это могут быть очень простые вопросы архитектуры низкого уровня. Я пытаюсь понять это. Пожалуйста, поправьте, если я тоже ошибаюсь.
Слово = 64 бита, 32 бита и т. д. Это количество битов, которое компьютер может прочитать за раз.
Вопросы:
1.) Означает ли это, что мы можем отправить 4 числа (длиной 8 бит/байт каждое) для 32 бит? Или комбинация 8-битных (байтовых), 32-битных (4 байта) и т. д. чисел одновременно?
2.) Если нам нужно отправить только 8-битное число, то как оно образует слово? Заполняется только первый байт, а остальные все байты дополняются нулями или последний байт заполняется, а остальные байты дополняются нулями? Или я где-то видел, что первый байт имеет информацию о том, как заполняются остальные байты. Здесь это применимо? Например, UTF-8. Здесь ASCII занимает 1 байт, а некоторые другие символы занимают до 4 байт. Итак, когда мы отправляем один символ, мы отправляем все 4 байта вместе, но заполняем байты, как требуется для символа, а остальные байты равны 0?
3.) Теперь, чтобы представить 8-значное число, нам потребуется 27 бит (помните известный вопрос, сортировка 1 миллиона 8-значных чисел всего с 1 МБ ОЗУ). Можем ли мы точно использовать 27 бит, что составляет 32 бита (4 байта) - 5 бит? и использовать эти 5 цифр для чего-то еще?
Ценю ваши ответы!