22:09 Мэтт Катс рассказал об отношении Googlebot к технологиям JavaScript и Ajax | |
Сегодня существует немало способов улучшить юзабилити страницы и представить контент на сайте наилучшим образом. Одни из тех, которыми пользуются вебмастера, – это технологии JavaScript и Ajax. Хорошо, если создаваемый сайт не нуждается в SEO. В противном случае встает вопрос, как Googlebot обрабатывает контент с Ajax, JavaScript, а также содержимое JS- и CSS-файлов? Именно этому вопросу и посвящен очередной видеоподкаст руководителя команды Google по борьбе с веб-спамом Мэтта Катса (Matt Cutts). В обучающем видеоролике представитель Google рассказал о том, что поисковый алгоритм Google умеет обрабатывать JavaScript и AJAX. При этом GoogleBot делает это довольно качественно, так как у него есть доступ к контенту, который динамически подгружается с использованием указанных скриптов. «Мы можем детально рассмотреть страницу и понять, как загружает эту страницу браузер, извлечь нужные данные, а затем проиндексировать их. С этой целью Google старательно извлекает содержимое JS и CSS-файлов» – рассказывает Мэтт Катс. Однако, есть важные нюансы. Например, для поисковых алгоритмов важно, используется ли JavaScript на странице, или же он встроен в элемент Iframe. Несмотря на то, что у Google есть технические возможности для индексации контента в обоих вариантах, другие поисковые системы такими технологиями могут не обладать. и вебмастерам стоит это учитывать в своей работе. Если владельцы сайта и те, кто с ним работает, заинтересованы в том, чтобы ресурс получил адекватную оценку при ранжировании, стоит создавать HTML-версию сайта. Напомним, что некоторое время назад представитель поиска, рассказывая об оценке одностраничных сайтов, просил вебмастеров не закрывать от Googlebot страницы на javascript и CSS. Сейчас такой вопрос уже не стоит, однако, продвижению ресурса всегда мешали и будут продолжать мешать неумелые попытки вебмастеров что-либо «прикрутить» или убрать на сайте.
| |
|
Всего комментариев: 0 | |