proview.ruОптимизацияОшибки и проблемы оптимизации сайта → 9 мифов среди начинающих веб мастеров.

9 мифов среди начинающих веб мастеров.

 

Многие WEB мастера знают о таких мифах, кто-то опытным путем их выявил, кто-то нашел статьи на эту тему. Но есть и те, кто с ними не согласится. Мифы были озвучены на третьей онлайн - конференции вебмастеров, проводимой компанией Google. Озвучил их Джон Мюллер (John Mueller)


Многие начинают оптимизацию со следующих шагов:
Наполнение текста ключевыми словами;
Оптимизация мета-тегов;
Регистрация в каталогах, поисковых системах, прогон, и ещё раз прогон…

Но часто не происходит никаких изменений, несмотря на то, что было потрачено достаточно много времени и усилий.

I За дублированный контент можно получить БАН.

Не стоит переживать сильно из-за дублированного контента на вашем сайте, поисковые системы игнорируют дублирование. Сделайте так, чтобы поисковому боту было понятно, где найти предпочтительную версию контента и помогите ему спарсить контент страниц рационально. Когда вы используете что-то с другого сайта, используйте их содержимое также рационально!

 
II Размещение в 1000 поисковых системах и каталогах очень важно.

Вы используете тысячу поисковых систем? Многие из них найдут ваш сайт раньше, чем вы найдете эту поисковую машину. Регистрация в поисковиках значительно ничего не изменит, зато спам по email у вас возрастет экспоненциально.

Достаточно заявить о Вашем сайте нескольким основным поисковым системам. Остальные подхватят информацию от них.
III Участие в программах AdWords, AdSense или Analytics поможет либо навредит вашему сайту.

Данные продукты не предназначены для продвижения сайта. Данные инструменты являются неотъемлемой частью в продвижении, и проведении рекламных кампаний в контекстной сети. Не вредят и не помогают - они остаются нейтральными.
IV Повторяя высокочастотное ключевое слово слишком часто позволит показать ПС его важность для вашего сайта.

Ключевые слова и фразы должны присутствовать в тексте в меру, не известен алгоритм определения оптимальной плотности. О рекомендуемом количестве много говорят оптимизаторы. Но известно что есть такое понятие как переоптимизация, ситуация когда слишком много и часто используются ключевые слова, в таком случае текст становиться нечитабельным.

 
V Использование XML карты сайта (sitemap.xml) уронит ваш сайт.

Нет, это не так! Sitemap.xml полезны, так как помогают поисковым ботам узнать больше о вашем контенте, помогают вам больше узнать в вашем же сайте. Множество CMS поддерживают генерацию sitemap, а также есть другие методы их генерации. Поддерживайте sitemap всегда свежим.

 
VI PageRank умер или PageRank это самое главное!

PageRank является всего лишь единицей измерения количества и качества ссылок на страницу. Google использует PageRank, но также эта поисковая система использует 200 других факторов. Тулбарный PR обновляется несколько раз в год.

 
VII Регулярная отправка сайта в адурилку существенна.

Повторная отправка сайта в адурилку не изменит индексацию, сканирование и ранжирование. Как только Google узнал URL сайта, сразу же составляется план по его сканированию.

 
VIII Как только ваш сайт попал на высокие позиции, не надо его трогать.

Некоторые вещи становятся лучше, когда их не трогают, однако, с вебсайтами дело обстоит по-другому. Изменения в позициях сайта в результатах поиска могут случиться и обязательно произойдут, так как другие сайты не стоят на месте. Для того чтобы попасть в ТОП вы предпринимали действия, над конкурирующими сайтами также может проводится работа. Также подумайте о пользователях — осчастливленные посетители всегда вернутся.

IX Валидный (X)HTML улучшит рейтинг сайта.

Качество HTML кода не влияет на ранжирование. Большинство web пользователей имеют невалидный код на страницах своих сайтов. Менее 5% сайтов валидны! Как браузеры, так и поисковые роботы могут обрабатывать разный код. Очень редко встречается слишком напортаченный код. Однако, валидный HTML может работать лучше на многих браузерах, а также позволяет легче найти и обработать некоторые фрагменты.

Другие мифы которым не стоит верить:
Использование “disallow” в robots.txt удалит сайт (страницу) из индекса поисковой системы.
Чем больше ссылок, тем лучше.
Самая важная цель при запуске сайта — сделать его первым в поисковых системах.
Лучше сделать старые URL, чтобы они отдавали 404 ошибку, тогда новая структура сайта будет с легкостью открыта.
Использование “Index, Follow” в мета-тегах robots очень важно.
Размещение сайта на общих IP адресах (shared hosting) приведет к снижению его рейтинга (позиций).

Источник: http://freeboards.com.ua

Популярное