SEO — мифы

Прошли времена SEO-шаманов, которые «ездили» Вам по-ушам. Приводим список стереотипов от которых надо избавляться как SEO-студиям, так и их клиентам.

Проблема многих веб-мастеров заключается в незнании базовых принципов продвижения. Для них SEO-оптимизация Google подразумевает регулярное обновление (размещение) контента и добавление ключевых слов в материал. Кроме того, за время работы поисковой системы сформировалось много мифов, связанных с сервисом, которые приводят к большому числу ошибок в процессе продвижения. О них и поговорим подробно.

Расширенные сниппеты

Некоторые создатели сайтов и СЕО-оптимизаторы уверены, что для получения расширенного описания (сниппетов) при поисковой выдаче достаточно включения валидной разметки в код интернет-площадки. Это ошибочное мнение, ведь такое дополнение не дает результатов без соответствующих подходов в оптимизации содержимого.

Первое, с чего стоит начать — удаляйте ссылки, которые были куплены для продвижения сайта. В противном случае расширенные сниппеты могут быть отключены. После очередного обновления позиции сайта могут ухудшиться, а оптимизация в Гугл сойдет на «нет». Получается, что объемные по числу символов сниппеты гарантировать невозможно. Лучшее решение — продолжайте заниматься оптимизацией сайта. С ростом авторитетности ресурса шансы на получение расширенного описания возрастают.

Фильтры поисковой системы

Термин «фильтр» был придуман разработчиками сайтов, а его суть сводится к обработке информации ресурса, а также ее воздействие на скорость индексации и продвижение. Но в поисковой системе фильтры отсутствуют. Несмотря на применение термина, его смысл искажен, а каждый веб-мастер понимает под ним нечто свое.

Интернет-продвижение в поисковой системе — целый комплекс взаимодействующих между собой элементов. В комплексе формируется общий алгоритм, который одинаково работает со всеми сайтами. Так, если интернет-площадка оказалась в «черном списке» и был понижен ее рейтинг, то причина — не фильтр, как считают многие, а упомянутый выше алгоритм. Именно его логика привела к снижению позиций сайта. К слову, в официальных источниках, касающихся поисковой системы, такой термин также не упоминается.

«Песочница» для молодых сайтов

Продвижение в Google — сложный процесс, включающий в себя комплекс мероприятий по внешней и внутренней оптимизации. Последнее время сложился миф, что Гугл как-то особенно относится к вновь появившимся интернет-сайтам и сознательно снижает их позиции.

И многие уверены, что такая проблема существует. Если анализировать состояние, оно выглядит следующим образом. Сайт индексируется поисковой системой и является частью ее кэша, но на странице выдачи ресурс не появляется. Более того, при наборе ключевиков для конкретной страницы площадки нет и в первых десяти страницах. Складывается ощущение, что ее не существует вовсе. Если ситуация выглядит именно так, то у веб-мастера укрепляется мнение о нахождении в «песочнице». Интернет-продвижение в этот период не останавливается, ведь «ограничительный» период (обычно он составляет до полугода-года) рано или поздно закончится.

С другой стороны, сотрудники Гугл опровергают наличие «песочницы», как таковой. Они заявляют, что изменения позиций сайта могут быть связаны с постепенным включением дополнительных признаков оценки. Со временем поисковая система определяет основные параметры:

  • Наличие дублей.
  • Качество материала.
  • Наполняемость тех или иных страниц и так далее.

После проведения нового анализа место в выдаче меняется, позиции ресурса поднимаются или опускаются.

Стоит ли преувеличивать роль поведенческих факторов?

На современном этапе SEO-оптимизация в Google и поведенческие факторы идут вплотную друг с другом. Считается, что последние влияют на ранжирование и, соответственно, позиции ресурса. Это миф. На самом деле Гугл не берет в расчет поведенческие факторы. Специалисты уверяют, что параметры отказов, число переходов, время нахождения на сайте и прочие показатели никак не влияют на выдачу. Многие веб-мастера никак не воспримут столь очевидную для самой поисковой системы информацию.

Негативное влияние 404-й ошибки

Еще одно заблуждение связано с негативным влиянием несуществующих страниц на ранжирование интернет-площадки. На самом же деле продвижение в Google не имеет никакой связи с этим показателем. Алгоритм Панда, который лежит в основе работы ПС, не берет в расчет такую ошибку, а наказания для веб-мастера и его площадки исключены. Особенность Гугл — игнорирование «битых» ссылок. Если же они и имеют место, то их стоит исправить ради пользователей, а не во избежание конфликтов с поисковой системой. Если таких ошибок 100 000, это никак не сказывается на рейтинге или продвижении.

Влияют ли «сопли» на позиции в поисковой системе?

Оптимизация в Гугл подразумевает регулярный контроль сайта с позиции наличия страниц в индексе. Считается, что при вводе в поисковую строку фразы «site: адрес вашего сайта» выдаются основные страницы в индексе. Если же добавить к уже написанной фразе «/&», то удается получить точную информацию по страницам в поиске. Как уверяют разработчики, дополнительный поиск ранее существовал. Но сегодня понятие «сопли» уже неактуально. Добавление «/&» к уже сделанному запросу дополнительных данных не несет. Сегодня такая информация является устаревшей и не соответствует действительности.

Спасение «утопающих»

Если существующий алгоритм поисковой системы привел к наказанию ресурса за большое число покупных ссылок, то закрытие низкокачественных линков ничего не даст Первое, что стоит сделать — удалить их. После направляется просьба о проверке, но уже с размещением ссылки с доказательством проведения этого мероприятия. Чтобы дальнейшая SEO-оптимизация в Google дала результат, требуется именно физическое устранение. Если же линк не удалось убрать, то он должен быть добавлен в disavow tool.

Об индексации страниц

В головах многих веб-мастеров укоренилось мнение, что все страницы сайта должны быть в индексе поисковой системы. Это ошибочное мнение. По заявлению разработчиков поисковой системы бот периодически делает переобход площадки и проверяет страницы с учетом алгоритма. К примеру, если на нескольких страницах имеются тексты с приблизительно идентичным содержанием, то в индекс попадает только один из материалов, имеющий более высокое качество. Кроме того, некоторые страницы могут исключиться из индекса за определенные нарушения. Продвижение в Google — процесс трудоемкий, требующий внимательного подхода к оформлению и качеству содержания страницы.

Отклонение ссылок

Отдельное внимание заслуживает ситуация, касающаяся линков из консоли поисковой системы (Search Console). Считается, что после применения инструмента disavow tool она должна пропасть из раздела линков на ваш ресурс. На самом деле, в соответствующей части веб-мастера отражаются только физические установленные на других ресурсах ссылки, а применение упомянутой команды на этот перечень не оказывает влияние. Добавление линка в disavow tool и реальное удаление — не одно и то же. Поэтому она и не убирается из консоли.

SEO-оптимизация в Google   — процесс, который требует знаний и понимания логики действий поисковой системы. При этом запомните упомянутые в статье особенности и учитывайте их на этапе раскрутки сайта.

Видеоролики для SEO-раскрутки сайта

На поисковое продвижение сайтов оказывают сильное влияние факторы поведения пользователей (ФПП). Если вы намерены занять топовые позиции в выдаче, необходимо постоянно…

Продвигать сайт – базовые инструменты

Продвижение и оптимизация сайта базируется на использовании ряда универсальных методов. Условно все способы раскрутки можно разделить на легальные (белые), полулегальные…

Контент-маркетинг: слово, способное продавать

Слово – первопричина. Откройте Библию, либо свой любимый сайт – все зиждется на слове. В народе говорят, оно способно ранить,…

Низкая «видимость» сайта: причины и способы их устранения

По ряду причин Google или иные поисковые системы могут не воспринимать сайт, как привлекательный, поэтому его нахождение для пользователей затрудняется.…