Я решаю некоторые примеры из сетей передачи данных Gallager, и я не совсем понял этот конкретный вопрос. Вопрос заключается в следующем:Стандартное отклонение при передаче данных
Предположим, что ожидаемая длина кадра по линии связи составляет 1000 бит, а стандартное отклонение - 500 бит. Найдите ожидаемое время и стандартное отклонение времени, необходимого для передачи миллиона кадров на 9600 бит/с. Следующий вопрос: скорость передачи кадров может быть определена как обратная величина ожидаемого времени передачи. Используя результат u найти в предыдущей проблеме, обсудите, является ли это определение разумным.
Моя попытка выглядит следующим образом:
Время отправки одного кадра: 1000/9600 = 0,104 секунд Таким образом, время, чтобы отправить миллионы кадров = 104, 000 секунд
я не понял вторая часть, где она просит найти стандартное отклонение и следующий вопрос. Я также не понял, что это значит, когда мы говорим о стандартном отклонении 500 бит, означает ли это потеря ошибки, которая здесь составляет 50%?
Это не проблема домашних заданий. Через несколько дней у меня средний срок, и я решаю их, чтобы улучшить свое отношение к этой теме.
Любая помощь/советы будут оценены
Спасибо, Chander