Правильно ли я понимаю теорию нагрузки на сервер с 100 мбитным каналом?
Приветствую! Подскажите, пожалуйста, правильно ли я понимаю теорию нагрузки на сервер с 100 мбитным каналом.
Допустим, сервер только принимает запросы, но не отдает ответы. Железо сервера и исполняемый код на нем выдерживают обработку 10 тыс./сек. запросов.
Отправляемый объем данных на сервер постоянен и равняется 300 байт в одном запросе, получается что канал может выдержать 100 мбит/300 байт = 43690 запросов/сек.
Поскольку железо и ПО способно обработать только 10 тыс./сек., то канал используется неэффективно? В данном случае хватило бы канала около 25 мбит?
Теперь, сервер только отсылает ответы и способен обработать 10 тыс./сек.
Отправляемый объем данных постоянен и равняется 50 кбайт в одном ответе, получается что канал может выдержать 100 мбит/50 кбайт = 256 ответов/сек.
Поскольку канал способен обработать только 256 ответов/сек., то железо используется неэффективно? В данном случае хватило бы железа способного обработать 256 запросов/сек?