0

Я решаю некоторые примеры из сетей передачи данных Gallager, и я не совсем понял этот конкретный вопрос. Вопрос заключается в следующем:Стандартное отклонение при передаче данных

Предположим, что ожидаемая длина кадра по линии связи составляет 1000 бит, а стандартное отклонение - 500 бит. Найдите ожидаемое время и стандартное отклонение времени, необходимого для передачи миллиона кадров на 9600 бит/с. Следующий вопрос: скорость передачи кадров может быть определена как обратная величина ожидаемого времени передачи. Используя результат u найти в предыдущей проблеме, обсудите, является ли это определение разумным.

Моя попытка выглядит следующим образом:

Время отправки одного кадра: 1000/9600 = 0,104 секунд Таким образом, время, чтобы отправить миллионы кадров = 104, 000 секунд

я не понял вторая часть, где она просит найти стандартное отклонение и следующий вопрос. Я также не понял, что это значит, когда мы говорим о стандартном отклонении 500 бит, означает ли это потеря ошибки, которая здесь составляет 50%?

Это не проблема домашних заданий. Через несколько дней у меня средний срок, и я решаю их, чтобы улучшить свое отношение к этой теме.

Любая помощь/советы будут оценены

Спасибо, Chander

ответ

1

Предполагая, что распределения являются нормальными, то у вас есть sum of normally distributed variables. В этом случае и математическое ожидание, и дисперсию легко вычислить, вы можете просто добавить их.

1 frame ~ N(1000,500) 
1 mil frams ~ (1E9,5E8) 

, чтобы получить раз вы просто разделить как на 9600.

E[time] ~= 104167 seconds 
std[time] ~= 52083 seconds 

Одна деталь в том, что это глупо для них, чтобы использовать нормальное распределение, так как есть некоторая ненулевая вероятность того, рама имеет отрицательные биты. И, следовательно, существует некоторая ненулевая вероятность, что вы отправите все ваши (отрицательные) биты в отрицательное время ... Поскольку они не указывают распределение, я не вижу, что еще они могли иметь в виду.

Смежные вопросы