Можно ведь получить одноричную систему счисления, если, допустим, возьмем 0. То есть дальше числа будут идти в следующем порядке - 00, 000, 0000, 00000,... Но я не нашёл информацию о такой системе. А в программировании используется двоичная система. Получается то, что я привёл, не является системой счисления?
запятая в приведенном примере является вторым символом (система двоичная, но с другими правилами)
между сигналами должна быть разница, двоичная кодирует присутствие и отсутствие сигнала, меньше не может быть системы
А одно другому не мешает. Оба верны. Но моё определение полезнее :P , ибо из него автоматически вытекает простой алгоритм конверсии одного в другое в несколько строк длиной.
почему не существует? только что статью из википедии кидали. просто к следующему числу прибавляем ещё один знак, вот и система счисления.
- у тебя сколько конфет?
- у меня 00. а у тебя?
- у меня 000000.
- у тебя в 000 раз больше.
отчего же некорректен? Покажите мне алгоритм перекодирования из унарной системы счисления в бинарную или десятичную или любую другую? Одним символом можно кодировать разве что количество убитых медведей, наверное пещерные люди такой пользовались, ставя черточки. Но в
электронике сигналов - есть сигнал или нет сигнала, 0 или 1, меньшего не дано