Я работаю над AJAX-crawlable (Google AJAX-сканирование), но некоторые вещи мне непонятны. В конце приложения я отфильтровываю _escaped_fragment_
параметр и вернуть снимок HTML, как и ожидалось.
При вызове URL вручную, как показано ниже, проблем нет:
(1) животные #! Собаки
(2) животные? _Escaped_fragment_ = собаки
При просмотре источника страницы в опции (1) содержимое загружается динамически, а при опции (2) источник страницы содержит снимок html. Все идет нормально.
Проблема в том, что при использовании Google выручай как предложено (Google Fetch) паук только Кажется, опция сканирования (1) выглядит так, как будто хеш-банг (#!) никогда не конвертируется AJAX-сканером. Даже когда жестко die("AJAX test);
внутри функции, имеющей дело с _escaped_fragment_
это не отражается на результате, генерируемом пауком.
До сих пор я делал все в соответствии с рекомендациями Google, и единственное, что я могу сделать для решения этой проблемы, можно найти на подстранице на форумах Google: Получить как Google игнорируя мой хэштег. Если это так, то это будет означать, что нет точного способа проверки того, что бот Google увидит, пока изменения не вступят в силу и страница не будет переиндексирована?
Другие страницы, такие как Как проверить, может ли робот Googlebot получить доступ к вашему содержимому AJAX и страница Google сама предполагает, что это Можно пройти тестирование с помощью Google Fetch.
Похоже, информация противоречит самой себе, и я не знаю, будет ли мой робот AJAX правильно сканировать контент. Надеюсь, кто-то с большим знанием этого вопроса может мне помочь.
Хэш-челки были заброшены. PUSH заявляет являются более дружественной альтернативой.
Других решений пока нет …