У меня есть огромный сайт с более чем 5 миллионами URL-адресов.карта сайта стратегия генерации
У нас уже есть пейджер 7/10. Проблема в том, что из-за 5 миллионов URL-адресов и потому, что мы ежедневно добавляем/удаляем новые URL-адреса (мы добавляем ± 900, а мы удаляем ± 300), Google не достаточно быстрый, чтобы индексировать их все. У нас есть огромный и интенсивный модуль perl для создания этого файла Sitemap, который обычно состоит из 6 файлов Sitemap. Конечно, Google не быстрее, чтобы добавить все URL-адреса, особенно потому, что обычно мы каждый день обновляем все эти sitemaps и отправляем в Google. Мой вопрос: какой должен быть лучший подход? Должен ли я действительно отправлять 5 миллионов URL-адресов в google ежедневно, даже если я знаю, что Google не сможет обработать? Или я должен отправлять только постоянные ссылки, которые не будут меняться, а искатель google найдет остальное, но по крайней мере у меня будет краткий индекс в google (сегодня у меня меньше 200 из 5000 000 URL-индексов)
Хорошо, если вы удаляете так много URL-адресов ежедневно .. почему он должен индексировать Google? – Shoban