Поиск глазами поисковых алгоритмов

Поиск глазами поисковых алгоритмов

Поисковые алгоритмы стараются дать пользователю как можно более полезный ответ. Здесь кроется основная проблема борьбы оптимизаторов и поисковиков, так как оптимизатор пытается вместо лучшего ответа предложить продвигаемый сайт.

У оптимизатора есть два пути: обманывать поисковый алгоритм, или приводить сайт к виду, который понравится поисковику. Большинство оптимизаторов идёт по пути обмана поискового алгоритма, но это путь в никуда.

Поисковый алгоритм — сложнейший и постоянно совершенствующийся программный комплекс, который учитывает (может учитывать) тысячи разнообразных сигналов. Это и отслеживание поведения посетителей на сайте, и текстовый анализ с помощью алгоритмов математической лингвистики, и анализ ссылочной массы и… много всего ещё. Постепенно поисковые алгоритмы избавляются от «дыр», пользуясь которыми оптимизаторы пропихивали низкокачественные сайты в ТОП. Параллельно поисковики наказывают санкциями сайты, которые были замечены в применении «чёрных» методов оптимизации. То есть обманывая поисковый алгоритм и достигая сиюминутного результата, Вы рискуете потерять все наработки при следующем усовершенствовании алгоритма.

Поисковый шум

Метрики, по которым поисковики оценивают качество сайта могут быть использованы оптимизатором для накрутки тех или
других параметров. Когда такие накрутки становятся массовыми, поисковый алгоритм перестает пользоваться данной метрикой или меняет алгоритм учёта, чтобы пропала возможность накрутки.

Наиболее показательна история с учётом ссылочной массы. Начавшаяся с вполне разумной идеи, что на хороший и полезный сайт пользователи будут оставлять ссылки, а материалы с полезных сайтов будут использовать, указывая источник информации. Всё выродилось в грандиозный бизнес по покупке и продаже ссылок. Количество покупных ссылок в десятки и сотни раз превосходит естественные, что привело к «поисковому шуму», где настоящие ссылки, по которым можно судить о полезности ресурса «тонут» среди бестолковых платных. Надо сказать, что по заявлениям представителей поисковых алгоритмов, возможность распознать искусственную ссылку равна примерно 90%. Эта информация хорошо увязывается с высказыванием, что на любом сайте работает не больше 10% ссылок, только никто не знает какие.

Последним объектом, к которому потянули руки накрутчики всех мастей, стали поведенческие факторы. Интернет пестрит предложениями повысить (накрутить) поведенческие факторы на Вашем сайте. Достоверной информации о методах борьбы с накрутчиками ПФ у нас пока нет, однако можно предположить, что учёт активности того или иного IP-адреса (пользователя) достаточно правильно (вероятность около 100%) позволит отличить нормального, что-то ищущего в Интернете человека от робота или пионера, который за три копейки имитирует бурную деятельность на Вашем сайте.