В потоковом потоке HTTP потоки файлов разделены на фрагменты фиксированного размера для потоковой передачи. Зачем это рационально? Как это лучше, чем наличие одного файла и использование смещений для извлечения различных кусков.Зачем сегментировать файлы в куски для потоковой передачи HTTP?
Мои грубые идеи на данный момент.
Разделение файлов на несколько фрагментов уменьшает время поиска файла во время потоковой передачи.
Из того, что я понимаю, файл хранится как постоянный связанный список на жестком диске. Это даже верно для современных файловых систем (например, NTFS, ext3) или они используют более сложную структуру данных, например, сбалансированное дерево или хеш-карты для индексации блоков файла? Какова сложность времени выполнения поиска (используя seekp, tellp и т. Д.) В файле?
Это сообщение, могло быть Вам полезно: http://stackoverflow.com/questions/2613734/maximum-packet-size-for-a-tcp-connection –