Google расширяет критерии ранжирования

Google

Ранжирование сайтов в поисковой системе Google приобретает еще один определяющий фактор. Как следует из обновления в Руководстве для вебмастеров, поисковые роботы Google Search начинают обращать внимание при сканировании на JavaScript-, CSS-файлы и изображения на страницы. Впервые о введении подобных изменений Google упоминала еще в мае, и вот теперь они вступают в силу.

Сутью обновления в Google называют отказ от устаревшего принципа индексирования сайтов, основанного на работе давно не актуальных текстовых браузеров вроде Lynx. Обновленный механизм индексации строится на визуализации распознаваемых страниц, что в большей мере отвечает понятию современного веб-браузера.

Вместе с тем, компания обращает внимание на то, то роботизированный движок Google для рендеринга может не поддерживать определенные технологии дизайна сайта. Во избежание вытекающих отсюда последствий веб-мастерам рекомендуется следовать нормам так называемого прогрессивного улучшения. Принципы данной концепции позволяют роботам эффективнее распознавать содержимое страниц.

Google также обновила инструмент Fetch as Google, позволяющий веб-мастерам взглянуть на индексацию сайтов глазами робота, хотя в чем заключается данное обновление, не уточнила.

В связи с изменениями, чтобы индексация страниц была корректной, веб-мастерам рекомендуется открыть к перечисленным типам файлам доступ для роботов в конфигурационном текстовом файле robots. Иначе, как это бывает, когда выходят апдейты Яндекса и Google, сайт может лишиться текущих позиций в выдаче в сторону уменьшения.

Оставить комментарий

Работает на WordPress