2010-06-21 4 views
13

Интересно, влияет ли контент, загружаемый динамически AJAX на SEO/способность поисковых систем индексировать страницу?Будет ли контент, загруженный AJAX, влиять на SEO/поисковые системы?

Я собираюсь сделать страницу постоянной загрузки, что-то вроде панели инструментов Tumblr, где содержимое загружается автоматически, когда пользователь прокручивается вниз.

ответ

2

Короткий ответ: Это зависит.

Вот почему - скажем, у вас есть контент, который вы хотите проиндексировать - в этом случае загрузка его с помощью ajax гарантирует, что он не будет. Поэтому содержимое должно загружаться нормально.

С другой стороны, скажем, у вас есть контент, который вы хотите индексировать, но по той или иной причине вы не хотите его показывать (я знаю, что это не рекомендуется и не очень приятно конечному пользователю в любом случае , но существуют допустимые варианты использования), вы можете загрузить этот контент нормально, а затем скрыть или даже заменить его с помощью javascript.

Что касается вашего случая, когда у вас есть «постоянно загружаемый» контент, вы можете убедиться, что он проиндексирован, предоставив ссылки на пользовательские агенты поисковых систем/не-js. Например, у вас может быть какой-то твиттер-подобный контент, а в конце его больше кнопка, которая ссылается на контент, начиная с последнего отображаемого вами элемента. Вы можете скрыть кнопку с помощью javascript, чтобы обычные пользователи никогда не знали, что это есть, но сканеры будут индексировать этот контент (нажав ссылку) в любом случае.

+0

будет ли поисковая система указывать пользователей на другую страницу? hmm может быть, что я могу сделать, это обычная разбивка на страницы, а затем скрыть ее с помощью JS при загрузке большего содержимого. –

+0

Yupp, обычная разбивка на страницы, скрытая от пользователя с помощью js, и заменяется ленивой загрузкой содержимого именно то, что вам нужно. –

1

Сканеры не запускают JavaScript, поэтому нет, ваш контент не будет виден им. Вы должны предоставить альтернативный метод достижения этого контента, если хотите проиндексировать его.

Вы должны придерживаться так называемой «грациозной деградации» и «прогрессивного улучшения». В основном это означает, что ваш сайт должен функционировать, а контент должен быть доступен, когда вы начнете отключать некоторые технологии.

Создайте свой сайт с помощью классической навигации, а затем «ajaxify». Таким образом, он не только правильно индексируется поисковыми системами, но и дружелюбен для пользователей, которые просматривают его с помощью мобильных устройств/с отключенным JS/и т. Д.

2

Если у вас есть контент, загруженный запросом Ajax, то это загружаются только пользовательскими агентами, которые запускают Javascript-код.

Поисковые роботы, как правило, не поддерживают Javascript (или не совсем хорошо).

Таким образом, вероятность того, что ваш контент, загруженный запросом Ajax, не будет отображаться поисковыми роботами - это означает, что он не будет проиндексирован; что не очень хорошо для вашего сайта.

9

Год спустя ...

Некоторое время назад Google вышел спецификации для того, как создавать контент XHR, которые могут быть проиндексированы поисковыми системами. Он включает сопряжение контента в ваших асинхронных запросах с синхронными запросами, за которыми может следовать искатель.

http://code.google.com/web/ajaxcrawling/

Не знаю, поддерживают ли другие поисковые гиганты этой спецификации, или даже делает Google. Если кто-нибудь знает о практичности этого метода, я бы хотел услышать об их опыте.

Edit: На сегодняшний день, 14 октября, 2015, Google has deprecated their AJAX crawling scheme:

В 2009 году мы сделали предложение, чтобы сделать AJAX страницы сканируются. Тогда наши системы не смогли отображать и понимать страницы, которые используют JavaScript для представления контента пользователям. ... Времена изменились. Сегодня, пока вы не блокируете Googlebot от обхода ваших JavaScript или файлов CSS, мы, как правило, можем отображать и понимать ваши веб-страницы, такие как современные браузеры.

H/T: @ наценка bembnowski

1

Принятый ответ на этот вопрос более не точен. Поскольку этот пост по-прежнему отображается в результатах поиска, я подведу последние факты:

Когда-то в 2009 году Google опубликовал свое предложение AJAX crawling. Другие поисковые системы добавили поддержку этой схемы вскоре после этого. На сегодняшний день, 14 октября 2015 года, Google has deprecated their AJAX crawling scheme:

В 2009 году мы сделали предложение сделать страницы AJAX полными. Тогда наши системы не смогли отображать и понимать страницы, которые используют JavaScript для представления контента пользователям. ... Времена изменились. Сегодня, пока вы не блокируете Googlebot от обхода ваших JavaScript или файлов CSS, мы, как правило, можем отображать и понимать ваши веб-страницы, такие как современные браузеры.

2

Пять лет спустя ...

Последнее обновление SEO AJAX:

По состоянию на 14 октября 2015

Google now is able to crawl and parse AJAX loaded content. SPA или другая страница, предоставленная AJAX, больше не нужна для подготовки двух версий веб-сайтов для SEO.

Смежные вопросы