2016-04-18 4 views
1

У меня есть сайт с мужчиной слева (около 5/6 записей) и разделителем центральной области на остальной части страницы. Центральная область заполняется с помощью вызова ajax. Когда пользователь нажимает на новую запись в меню, содержимое div будет удалено и заменено новым, полученным с помощью ajax.Google Crawler для одностраничного приложения

Теперь проблема заключается в индексировании google. Я несколько вопросов по этому поводу:

  1. Если ехать на главную странице триггер автоматически первый АЯКС вызов (первый вход меню), является Google в состоянии прочитать содержимое первой страницы?

  2. Если ответ на первый вопрос - да, я могу различать страницы с использованием хэш-нотации (например, mysite.com # page/1) и дать пользователю возможность получить доступ непосредственно к другому элементу меню, используя соответствующий хэш. После этого можно создать карту сайта, которая включает в себя одну ссылку для каждой записи хэша? В этом случае Google может читать все содержимое моего сайта? если да, не могли бы вы привести мне пример карты сайта?

  3. И, наконец, если ответ на первый вопрос отсутствует, то как лучше всего индексировать одностраничное приложение?

В принципе, у меня действительно меньше контента, но для меня очень важно, что одностраничное приложение может выставлять пользователю.

Последний вопрос: у меня также есть версия для мобильных устройств с «страничным» обозначением jQuery mobile. Можно ли индексировать Google?

Заранее спасибо, любая помощь будет оценена по достоинству.

До свидания!

ответ

4

Этот вопрос, вероятно, лучше подходит для webmasters.stackexchange.com, но я все равно приму его.

Это было Google's previous recommendation для индексирования одностраничных приложений с использованием браузера без использования браузера для получения «моментального снимка» HTML-кода, активированного ajax, который затем отправляется боту. Однако это было устаревшим в октябре 2015 года, поскольку Google Bot теперь может читать и интерпретировать файлы JavaScript и CSS, если он не заблокирован в файле robots.txt. См. this blog post для более подробной информации.

Я думаю, что это должно ответить на все три вопроса. Если вы придерживаетесь обычной уже определенной структуры приложений одной страницы, такой как использование хеша #, hashbang #! или history.pushState(), тогда вы должны быть в порядке, чтобы определить страницы, однако вы хотите, и создать связанный файл Sitemap, используя определенную структуру ссылок.

+0

Большое спасибо за ваш ответ. Я прочитаю ваши ссылки. Спасибо! – guest9119

+1

Только последний вопрос: не могли бы вы привести пример карты сайта с хэш-страницами? благодаря – guest9119

Смежные вопросы