2015-07-21 2 views
0

Я создаю сайт на основе реакции, который другие будут развертывать. Он принимает форму одностраничного приложения с URL-адресами /#like=this, а окончательные веб-сайты будут богаты контентом. Все содержимое должно быть видимым для поисковых роботов. Есть ли способ сделать это (даже хакерский), который не требует изоморфного рендеринга на стороне сервера? В частности, я не могу ожидать, что конечные пользователи смогут обслуживать страницы с помощью node/express.Получение spajs SPA spidered без использования node.js

+0

Google может обходить страницы, обработанные клиентской стороной, поэтому, если это достаточно хорошо, то вы уже охвачены. –

+0

@Hummlas. Это выглядит как _not_, чтобы быть правдой, поэтому существует множество попыток создания изоморфного или «универсального» JS, который должен быть задействован на стороне сервера, используя узел. Я сам проверил тест, а google просмотрел страницу, но не захватил динамический контент. –

+0

http://searchengineland.com/tested-googlebot-crawls-javascript-heres-learned-220157 Мы также подтвердили это на своем рабочем месте, где мы создали SPA, используя React (не изоморфный/универсальный) и подтвердил, что он может быть проиндексирован Google. –

ответ

0

Есть ли способ сделать это (даже хакерский), который не требует изоморфного рендеринга на стороне сервера?

Нет

В частности, я не могу ожидать, что конечные пользователи, чтобы иметь возможность обслуживать страницы с узлом/экспресс.

Nodejs не имеет ничего общего с этим. Клиент не знает, где будет отображаться контент.

Смежные вопросы