- 18.10.2015 20:18
- Поисковые системы
Google отозвал рекомендации по сканированию AJAX. Google больше не рекомендует вебмастерам и разработчикам придерживаться правил, изложенных в руководстве по сканированию AJAX.
Руководство было призвано сделать AJAX-страницы видимыми для поисковых роботов. На тот момент системы Google не могли распознавать и отображать страницы, использующие JavaScript. Поскольку краулеры не могли видеть динамический контент, Google предложил вебмастерам набор практик, призванных обеспечить сканирование AJAX-приложений поисковыми роботами.
Теперь эта ситуация изменилась. В настоящее время Googlebot может видеть и распознавать такие страницы. Чтобы отобразить эти изменения, компания обновила Рекомендации для вебмастеров. Теперь, чтобы Googlebot правильно распознавал содержание сайта, вебмастерам рекомендуется открыть ему доступ ко всем ресурсам, включая файлы CSS и JavaScript.
«Система индексирования Google обрабатывает HTML-код веб-страницы и все её элементы, такие как изображения, файлы CSS и JavaScript», — говорится в обновлённом документе.
Напомним, что в марте этого года аналитик и инженер отдела качества поиска Google Гэри Илш (Gary Illyes) сообщил, что, поскольку Google с мая 2014 года способен обрабатывать всё содержимое страницы, система может отозвать рекомендации по сканированию AJAX, предлагаемые центром разработчиков Google.
В конце апреля Гэри Илш заявил, что компания всё ещё работает над созданием новых рекомендаций по сканированию AJAX. Целью Google является прекращение сканирования фрагментов _escaped_fragment_ AJAX, а не сайтов на AJAX, как это произошло с Flash-технологией.
А в августе специалист отдела качества поиска Google Джон Мюллер (John Mueller) заявил, что поисковик всё ещё сканирует страницы, использующие AJAX.
- Печать
- 0 Комментариев
- 7299 Прочтений
Поделиться этой статьей | |
Социальные закладки: | |
URL: | |
BBcode: | |
HTML: |
- 5 (Отлично!) - 1 Голос
Рейтинг доступен только для пользователей.
Пожалуйста, авторизуйтесьили зарегистрируйтесь для голосования.