Задать вопрос
@ulilu1372

Как компьютер (процессор) отличает битовую последовательность 0000 от 00000?

Хотелось бы узнать еще и литературу, где этот вопрос подробно описан.
  • Вопрос задан
  • 444 просмотра
Подписаться 1 Оценить Комментировать
Решения вопроса 2
VoidVolker
@VoidVolker Куратор тега Железо
Dark side eye. А у нас печеньки! А у вас?
Никак, т.к. и первая и вторая - нули. Когда пишется 0 - по факту подразумевается 8/16/32/64 нулевых бита (конкретное число зависит платформы и контекста).
Ответ написан
@Mirn
на физическом уровне отличает одно от другого так:
1. При параллельном интерфейсе - либо на четырёх проводах нули, либо на пяти.
2. На последовательном (SATA, Ethernet и тд) по времени, если частота данных для примера 1 секунда, то нулевой уровень сигнала в течении 4 секунд или пяти.
3. В памяти, (ОЗУ/жестяк и тд) либо 4 либо 5 ячеек не содержат напряжение / намагниченость / остаточный заряд.
Ответ написан
Комментировать
Пригласить эксперта
Ответы на вопрос 1
@aol-nnov
читай про кодирование информации.
  • не обязательно все твои нули будут закодированы низкими уровнями (самосинхронизирующиеся коды)
  • есть сигналы синхронизации
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы