proview.ruSEOПоисковые системы → Фильтры против спама в гугле

Фильтры против спама в гугле

В этой статье будут рассмотрены кое-какие фильтры, которые использует поисковая система Google, для того, что бы отсеять постоянно растущее количество спам-ресурсов, а так же другие недобросовестные проекты, выдача которых в серп будет не релевантна поисковым запросам. Сразу же оговоримся, что основные (самые известные) алгоритмы уже освящены в отдельных статья на bigfozzy.com - поэтому, в этой статье вы не найдете информации относительно песочницы (Sandbox), а так же фильтра именуемого Google Bombing.

Зато, прочтете про кое-что другое - не менее важное и полезное, да и лишние знания не помешают, как говорится.

Первым делом остановимся на Google Duplicate Content Filter. Этот фильтр направлен на то, что бы отсеять сайты, которые содержат жестокий плагиат с чужих ресурсов. Очень часто можно услышать совет, что перед тем, как у кого-то что-то украсть и запостить у себя (имеется в виду текстовое наполнение), то следует немного переделать этот оригинальный материал, ибо гугл не жалует ворованный контент и не позволякт такой странице подняться в выдаче, т.е. банит. Это и есть результат работы вышеназванного фильтра. Вообще-то, называть это баном не совсем корректно - алгоритм фильтра устроен так, что сайт помещается в специальный результат поиска, который именуется supplementary results (т.е. дополнительные результаты поиска) или же попадает в другой, тоже не менее приятный раздел, под названием omitted search results (результаты опущенный за незначительностью). Так что, будьте аккуратны когда что-то тырите - лучше уж немного попотеть над контентом, чем потом вылезать из вышеназванного фильтра. Ну, а если есть потребность посмотреть, что же воруют непосредственно у Вас, то посетите это место: http://www.copyscape.com/ - очень полезный сервис.

Но вернемся к гугловским анти-спамерским примочкам. При оптимизации сайта следует опасаться еще одного фильтра, именуемого Google -30. Принцип работы таков - если система определяет Вашу деятельность как нарушение, то сайт пессимизируется на 30 позиций в выдаче. Что же это за нарушения? Разумеется речь идет о любом виде black-seo - если гугл это спалит, то сайт не поднимется выше 31-й позиции в серпе. Сюда следует отнести прежде всего спам на форумах, гостевухах, блогах и т.п. Неграмотное использование Java Script редиректа так же повлечет вышеописанные последствия. Рекомендуется использовать 301-й редирект (т.н. 301 Moved Permanently). Если гугл решит, что сайт похож на дорвей, то так же будет применен фильтр Google -30. Что бы избавиться от нахождения ниже 30-й позиции, следует устранить причины, которые повлекли за собой эту беду, т.е. надо убрать спам - сайт выйдет из фильтра автоматически (придется, конечно подождать какое-то время).

Еще один фильтр можно определить, как "фильтр взаимного цитирования". Уже давно известно, что меняться ссылками надо с умом - с кем попало не стоит. Если Ваш сайт ссылается на ресурсы, которые не соответствуют вашей тематике, а они ссылаются на Вас, то это даст повод гугловской машине помешать Вашему ресурсу появляться в первых рядах по нужным ключевым словам. Немаловажный аспект - всегда следует быть разборчивым и проводить кампанию по обмену ссылками только с тематически близкими сайтами.

Существуют еще кое-какие фильтры, но они выполняют скорее техническую функцию - например, что бы не перегружать и без того занятого бота. Фильтры, отсеивающие сайты на которых имеются битые ссылки или ресурсы, загрузка которых занимает продолжительное время - из их числа. Но поскольку это не из области спама, то, в настоящий момент, обойдем их вниманием - прочтете о них в другой сатье.

Остается только добавить, что если Вам известно что-то более конкретное о вышеперечисленных гугловских фильтрах, то пишите на наш форум, не стесняйтесь!


Источник: www.bigfozzy.com

Популярное