Если бы речь шла о простых цифровых (логических) микросхемах, то в них время такта задаётся их быстродействием, в чистом незамутнённом виде. Ну т.е. буквально - если такт уменьшить (увеличить тактовую частоту), то количество сбоев из-за налезания фронтов импульсов друг на друга с некоторого значения увеличится сверх допустимого. Ведь длительность фронтов/спадов изменить нельзя (она задана технологией), и при сокращении длительности тактовых импульсов они перестают быть похожими на импульсы и приближаются формой к синусоиде - прямоугольная форма размазывается.
В процессорах всё это усугубляется кучей перекрёстных связей и шинной структурой. Допустим, вам надо передать по 8-разрядной шине перепад с 00000000 до 111111111, скажем, из АЛУ в какой-нибудь регистр. Запоздает сигнал на одной из линий - вы получите ошибку передачи. Чтобы не запаздывал, время такта придётся увеличить, т.е. создать достаточный запас на компенсацию таких задержек распространения. Вот так оно и выбирается. Чтобы его сократить (т.е. увеличить быстродействие процессора), шину приходится строго симметрировать по времени распространения сигнала.
Но зато есть и бонус: на кристалле процессора длина проводников и их паразитные ёмкости минимальны. Именно это и позволило выйти на нынешние гигагерцы, которые ещё каких-нибудь 20 лет назад были невообразимы.