Заметки на манжетах
12 апреля 2010 г.
Не очень новая новость от Google – появился еще один фактор, влияющий на ранжирование.
Собственно новость в оригинале: Using site speed in web search ranking. Датирована 9 апреля.
А вот более-менее вольный перевод, если кому-нибудь нужно. :-)
Наверное, вы слышали, что мы в Гугле очень озабочены скоростью – как в своих продуктах, так и в сети. Поэтому сегодня мы включаем новый фактор в наш алгоритм поискового ранжирования: скорость сайта. Эта величина отражает, насколько быстро сайт откликается на запросы.
Повышение скорости отклика сайтов очень важно не только для их владельцев, но и для всех пользователей. Как показывают результаты наших исследований, чем медленнее откликается сайт, тем меньше времени ему готовы уделить посетители. Высокая скорость не только удовлетворяет пользователей, но и снижает расходы. И наши пользователи, как и мы, придают большое значение скорости, поэтому мы решили учитывать скорость сайта в ранжировании поисковых результатов. Мы используем разные источники информации о скорости сайта относительно других сайтов.
...здесь пропущен список инструментов для измерения скорости...
Хотя скорость и стала новым фактором, она не имеет такого большого значения, как релевантность страницы. Сейчас менее 1% поисковых запросов ранжируются с учетом скорости, и этот фактор пока реализован только в англоязычном поиске на google.com. Мы начали внедрять это изменение несколько недель назад, после тщательного тестирования. Если вы не видите больших изменений в позициях своего сайта – возможно, фактор скорости просто не затрагивает этот сайт.
Мы рекомендуем вам следить за скоростью сайтов – не только для повышения рейтинга в поиске, но и для профессионального роста.
Вот такое заявление. И далее следуют комментарии – большей частью, конечно же, негативные. Легко понять – людей тревожит возможное снижение позиций в поиске из-за нового фактора. Особенно тех, у кого на сайтах присутствует реклама, загружаемая с других ресурсов: это ставит их скорость отклика в зависимость от скорости чужого сервера и повлиять на это они никак не могут. Вдобавок, никого не радует мысль, что конкурент может вырваться выше, поскольку у него сервер мощнее или движок сайта более шустрый. В общем, опасений хватает. Многие считают, что Google сделал ошибку, включив в алгоритм ранжирования этот фактор.
Не буду злорадствовать. Хотя всегда был озабочен скоростью и ресурсоемкостью своих движков, но не думаю, что получу от этого очень уж существенное преимущество. Во-первых, новинка пока внедрена в англоязычном поиске и лишь для малой доли запросов. Пока это докатится до рунета и распространится на более существенную часть тематик, пройдет еще немало времени.
Во-вторых, написано же английским по белому, что этот фактор не имеет такого большого значения, как релевантность страницы. То есть, преимущество он сможет дать только при прочих равных условиях, а условий этих столько, что устанешь считать, и равными они сами по себе не будут. Просто еще один фактор, немного учитываемый в ранжировании. Впрочем, я не сомневаюсь, что в оценке качества сайта (как компонента т.н. траста) он учитывается давным-давно. Но это моя точка зрения, желающим опять свести все к ссылкам я ее не навязываю.
Еще одно, на что стоит обратить внимание – это слова «Мы используем разные источники информации о скорости сайта». В самом деле, задолго до того, как в WMT среди экспериментальных функций появилась «Эффективность сайта», в функции «Диагностика – Статистика сканирования» без лишней помпы накапливалась информация о скорости вывода страниц. Минимальной, максимальной и средней за период. Кроме предлагаемых тулбаров и плагинов, с которых Google получает время загрузки страницы у пользователя, он получает и время сканирования от своего бота. Поэтому сопоставить реальную скорость отклика сайта со скоростью загрузки страниц у отдельного пользователя – задача для него легко разрешимая.
Точно так же разрешима и задача отделения собственного времени отклика от времени загрузки сторонней информации различными скриптами. Вряд ли кто-то сомневается, что эту разницу следует учесть. И думаю, программисты Google ее учтут. А дальше работает статистика. Разумеется, учитывая скорость сайта в ранжировании, Google не будет ориентироваться на самые медленные соединения, вроде GPRS в зоне неуверенного приема сигнала. Но и такие случаи он учтет в числе прочих, и это справедливо. В конце концов вебмастер должен помнить, что его сайт могут запрашивать и по медленным каналам. Позаботиться о скорости и легкости страниц – это знак настоящего уважения к посетителям, это признак профессионализма в сайтостроительстве, и это нужно поощрять.
Кстати, с этой новостью совпала еще одна, нигде не опубликованная – у гуглбота несколько расширился круг интересов. Я прочел эту новость в логах. И в очередной раз всем советую время от времени их читать, там на самом деле много интересного. :-) Перевода и пересказа этой новости пока не будет, самому пригодится...