2013-08-02 6 views
5

Я заметил, что для моего сайта резюме Google Bot, казалось, помещало первую партию найденного текста. Это был тег noscript, который сказал пользователю включить JavaScript, если он не был включен.Как подать резюме сайта в Google Bot?

Мне показалось, что я помешал бы ему, поставив скрытый div до этого, который фактически содержал резюме сайта.

Теперь я нахожу в своем последнем разборе, что он действительно загрузил страницу и запустил JavaScript, обошел скрытые div и использовал созданный динамический контент.

Как ни странно, мое приложение определило бота в качестве браузера Safari, но оно не обнаружило версию.

Короче говоря, как правильно получить сводку моего сайта в Google?

Это одностраничное приложение, которое требует JavaScript и поддерживает только FireFox и Safari.

Вот что он игнорировал

Отрывок 1 (в голове)

<meta name='description' content='My Summary'> 

Отрывок 2 (в теле)

<body> 
    <div id='google_bot' style='display:none'> 
    My Summary 
    </div> 

Update:

Последний раз, когда он просматривал мою страницу, он был обнаружен как Chrome 22, и в сводке сайта он действительно использовал метатег с описанием названия.

+0

У вас есть описание мета-тег? – FakeRainBrigand

+0

Это всего лишь десять футбольных полей серверов, это не настоящий робот, которого вы можете поймать и держать в руке? – adeneo

+1

Google решает, действительно ли описание отражает содержание страницы. Могут быть некоторые недокументированные хаки, но правильный метод заключается в том, чтобы обновить описание до того, что он считает (используйте слова на странице). Однако у него много проблем. У YouTube часто есть «нужна флеш-память ...». В прошлом я опубликовал отчет об ошибке. – FakeRainBrigand

ответ

4

Это должно быть довольно легко узнать.

Поместите описание сайта в 3-х местах, метатег, скрытый div, а также то, что робот Google нашел в своем последнем поиске. Используйте что-то маленькое, чтобы отличить 3, как пунктуацию.

Дальше. Отправьте свою страницу, которая будет сканироваться Google с помощью Google Web Tools, поэтому вам не придется ждать. Это займет всего около 15 минут.

После того, как он был извлечен, вы можете проверить, что он поднял то, что вы хотели, и оттуда вы можете отправить его в индекс.

Оттуда посмотрите, что изменилось, и проверьте, что он сканировал.

Странно, что он идентифицировал себя как сафари.

Вот некоторая информация о том, что агент пользователя должен выглядеть следующим образом:

https://support.google.com/webmasters/answer/1061943?hl=en

+0

Что касается пользовательского агента, обратите внимание, что несколько страниц, на которые вы ссылаетесь, намеренно похожи на браузеры. Кроме того, этот список предназначен для таргетинга директив * на * ботов, не обнаруживающих их трафика; они могут также сканировать с помощью поддельных агентов пользователя, чтобы обнаружить сайты, пытающиеся обмануть индексатора. – IMSoP

+0

Пользовательские агенты для Ботов Google четко указаны в ссылке, которую я опубликовал. Этот вопрос/ответ для Google только для OP. Папа - босс. –

3

Если у вас есть реальный новый уникальный непрерывный интересный контент, то вы можете генерировать a well marked-up RSS feed, RSS -> Rich Site Summary только с соответствующими вещами и добавить мета-тег, как

<link rel="alternate" type="application/rss+xml" title="RSS 2.0" href="${linkToFeed}"> 

Я думаю, что Google Bot любит его, как только он проверяет что RSS-Feed представляет собой содержание фактической страницы

+1

интересно, что привело вас к этой гипотезе? – Smurfette

+0

, потому что весь интерфейс не нужен для сбора основных данных, важно собирать данные о том, как пользователь использует данные, но если вы предлагаете простой обрабатываемый машиносчитываемый формат, почему бы не взять его и не сохранить некоторые деревья, представьте себе сколько дерьма и workarrounds и тонны кода webdesigner ставит arround интересные данные. Никакой гарантии на что-либо, я думаю, что это просто логика –

+0

@johnSmith Google не занимается бизнесом «спасения деревьев» (даже воображаемых цифровых), которые находятся в деле обслуживания релевантных и * нежелательных * результатов поиска. К сожалению, это означает, что они не могут доверять машиночитаемой версии страницы, потому что вы можете лгать машине о том, что вы показываете людям. – IMSoP