2010-08-15 4 views
9

Привет, мне было интересно, существует ли ограничение на количество разделов, разрешенных на веб-странице?Максимальное количество разрешенных разрешений на веб-странице

Например, Internet Explorer начнет задыхаться, когда ему придется отображать веб-страницу с тысячами разделов?

+9

, если у Вас есть задать такой вопрос, вероятно, вы делаете что-то неправильно ... –

+1

Если у вас есть страница с таким дизайном, количество разрешенных divs - не самая большая проблема. –

+2

Я не согласен с тем, что дизайн неправильный. Я написал поисковые запросы, которые позволяют людям перечислять 100, 250 или 1000 элементов и нужны divs для динамического изменения их содержимого.Вопрос в том, есть ли предел; ответ - нет, но реализм предлагает колпачок. –

ответ

1

Есть две вещи, которые следует учитывать. Память одна, где узлы DOM занимают огромное пространство. Другой процессор - время, необходимое для повторного отображения всех этих узлов, когда что-то меняется. Порог плавного рендеринга зависит от используемого двигателя. По моему опыту, IE падает далеко позади, забиваясь после нескольких сотен. Firefox может занять несколько тысяч, и это примерно одинаково (и немного лучше) для браузеров WebKit, таких как Chrome.

+0

Спасибо за ваш вклад! его трудно найти такую ​​информацию в Интернете. – Sau

26

Я знаю, что это старый пост, но я недавно сделал тест, который напрямую связан с этой темой, и я хотел поделиться своими результатами.

Я создал простой скрипт php, который выплескивает x число 5px на 5px встроенных блоков div для проверки стабильности браузера и возможности прокрутки страницы.

У 1000 разделов на странице IE9, Firefox и Chrome нет никаких проблем и даже не кажется, что они икота при прокрутке.

В 10,000 divs IE9 и Chrome могут прокручиваться с едва заметной задержкой, все еще находящейся в пределах допустимого диапазона в моей книге, однако Firefox начинает заметно отставать, до такой степени, что вы считаете, что полоса прокрутки прыгнув на полсекунды позже, чем нужно.

Интересно, что разница в производительности между 10 000 div и 100 000 не столь резка, как вы могли себе представить. IE9 и Chrome работают только с едва заметной задержкой в ​​прокрутке (при том, что Chrome является чуть более гладким из двух), и Firefox имеет задержку, которая очень заметна и, вероятно, будет считаться раздражающей, но все же функционирует достаточно хорошо (т. Е. t crash).

Теперь на 500 000 div на странице, наконец, стало интересно. IE9 Crashed и попытался перезапустить себя (на той же странице, конечно), и снова рухнул, после чего я закрыл его правильно, перезапустил и попробовал еще раз, чтобы убедиться, что тот же результат повторится. Так оно и было.

Хром оставался стабильным, но из-за чрезмерной задержки стало невозможно прокручивать страницу.

Большой сюрприз был Firefox, браузер, который был коротким на 100 000 divs, примерно такой же на 500,00 divs ... прокрутка не является гладкой, но это способ, лучше, чем Chrome.

Удивительно, но результаты были примерно одинаковыми для 1,000,000 divs на странице! Firefox обрабатывал их без сбоев и оставался прокручиваемым, хотя «коренастый». IE9 разбился. И Chrome смог загрузить страницу, но стал настолько медленным, что практически не использовался.

Я знаю, что это не совсем научное исследование, но я подумал, что это может быть интересно кому-то другому, кроме меня.

Испытание проводилось на рабочей станции Dell с процессорами Dual-Xeon и 4 гигабайтов оперативной памяти, работающих под управлением Windows 7.

+3

классная информация, даже если она немного ограничена в вашем тесте. –

+0

+1 для показа тестовой машины –

+0

Как насчет времени загрузки? Сколько времени стоило делать эти дивизии? – Ismail

Смежные вопросы