Если упала посещаемость вашего сайта и как ее поднять!
Этот вопрос рано или поздно волнует практически каждого владельца сайта. К сожалению, резкое падение трафика может произойти даже у хорошо оптимизированного ресурса, содержащего оригинальный контент и не злоупотребляющего внешними ссылками. Но зачастую подобные проблемы возникают вследствие ошибок и недоработок веб-мастера или оптимизатора сайта. В этой статье мы рассмотрим основные причины резкого падения трафика на сайт.
-Упали позиции в выдаче
Одной из причин сокращения трафика является проседание сайта в выдаче по значимым позициям. Ресурс становится труднее найти, вследствие чего уменьшается количество переходов из поиска. В некоторых тематиках большую часть органического трафика дают всего несколько высокочастотных запросов, находящихся в ТОПе. Проседание по этим позициям может существенно отразиться на общей посещаемости ресурса. Почему же падают позиции сайта?
-Фильтры поисковых систем
Фильтр – это своеобразный штраф поискиков за нарушение правил оптимизации, в результате которого сайт серьезно понижается в выдаче. Таким образом Google и Яндекс борются со спамом и вредоносными сайтами. В основном фильтры наказывают за переоптимизацию и применение черных методов продвижения. Например, фильтр «АГС» Яндекса предназначен для борьбы с сайтами, которые продают ссылки и не несут никакой пользы для обычных пользователей. Фильтр «Ты спамный» создан для борьбы с переоптимизированными страницами. В Google с подобной проблемой борется введенный в 2011 году алгоритм Panda.
Аффилиат фильтр накладывается Яндексом при обнаружении двух сайтов, принадлежащих одной компании. В результате по одному запросу может находиться только один, самый релевантный, аффилиат из группы. Причем по разным запросам будет находиться то один, то другой сайт, но не оба вместе.
У Яндекса также существует фильтр за накрутку поведенческого фактора и за очень длинные тексты на одной странице сайта. С точки зрения поисковых систем идеальный SEO-текст не должен превышать 2000-2500 знаков.
Для молодых сайтов у Google и Яндекса есть так называемая «песочница»; смысл фильтра в том, что новый сайт (моложе 6 месяцев) не может ранжироваться лучше авторитетных старых сайтов по высокочастотным запросам. Фильтр «минус 30» от Google борется со слишком активным и агрессивным продвижением сайта. Далеко не всегда сразу и точно удается установить, какой именно фильтр наложен и за что. Бывают ситуации, когда под фильтры попадают «белые и пушистые» с точки зрения SEO сайты. В любом случае необходимо сразу писать Платону Щукину в Яндекс.Вебмастере или в службу поддержки Google.
-Санкции за ссылки
Любой оптимизатор знает, что с внешними ссылками нужно быть очень аккуратным. Излишнее усердие в этом вопросе обычно приносит больше вреда, чем пользы. Особенную осторожность нужно проявлять при построении ссылочного окружения молодого сайта. Небезызвестный алгоритм Google Penguin, запущенный в апреле 2012 года для борьбы со спамом во всех его проявлениях, затронул более 3% англоязычных запросов и 5% русских. В результате многие сайты пострадали, потеряв от 10 и более позиций в выдаче.Снятие ссылок
При переходе из одной SEO-компанию в другую арендованные ссылки зачастую снимаются, что моментально и довольно существенно сказывается на позициях сайта. Это в свою очередь вызывает явление, известное как «мигание» ссылок - частое снятие или замена ссылок, которое негативно отражается на продвижении ресурса.
-Дубли страниц
Наличие дублей снижает позиции сайта, т.к. вместо продвигаемой станицы в выдаче может оказаться ее дубль. Дубли могут появляться вследствие неправильной работы CMS, так же их могут образовывать, например, страницы «версии для печати» или страницы с идентификаторами сессии и т.д. Подобные страницы сайта нужно обязательно закрывать от индексации в файле robots.txt.
-Не оригинальный контент
Для Яндекса большим авторитетом обладает первоисточник информации, и такие сайты в выдаче ранжируются выше. Поэтому мы своим клиентам рекомендуем размещать оригинальный контент или хотя бы качественный рерайт. При этом все новые тексты необходимо добавлять в специальный сервис Яндекса, тем самым указывая поисковику на первоисточник информации. В какой-то степени это также поможет защитить контент сайта от воровства.
-Медленная работа сервера
Пользователям не нравится, если сайт медленно загружается или происходят частые сбои при его работе, это повышает коэффициент отказов. Данный параметр так же учитывается поисковыми системами и негативно сказывается на ранжировании сайта.
-Изменения на сайте
Любые изменения на продвигаемом сайте необходимо согласовывать с оптимизатором. Чаще всего вред наносят:
- Изменение (url) без перенаправления на новый сайт, иными словами - битые ссылки;
- Смена дизайна;
- Смена CMS;
- Изменения файла robot.txt, приводящие к появлению страниц с ошибкой;
- Изменение значительных объемов контента на сайте;
- Наличие большого количества недоступных файлов, иллюстраций, ссылок, которые отдают 404-ошибку.
Необходимо поддерживать постоянную работоспособность и доступность всех файлов на сайте.
Сбои в работе процессов выгрузки каталогов из 1С и других учетных систем на сайт. Иногда поисковый робот заходит именно в тот момент, когда произошел какой-то сбой, каталог (некоторые параметры товаров, сами товары, иерархическая структура) выгрузился не до конца или вообще не выгрузился. Подобные случаи очень негативно сказываются на позициях сайта в выдаче.
-Доступность сайта
Для поисковых систем работоспособность сайта имеет определяющее значение, и если в момент индексации поисковый робот не может зайти на сайт дольше 24 часов, скорее всего, потери позиций в выдаче не избежать, особенно по топовым и высокочастотным запросам. Желательно поддерживать хостинг в полной суточной работоспособности, а так же не забывать вовремя продлевать срок регистрации домена, иначе можно моментально потерять нажитые годами позиции.
-Провайдер
Провайдер – это организация, предоставляющая доступ в интернет. По жалобе провайдера на нелегальный контент доступ к сайту может быть ограничен или заблокирован. Такая ситуация особенно распространена для торрентов, сайтов с фильмами и музыкой, но может произойти с любым сайтом при подозрении на пиратство.
-Сезонность
В некоторых сферах бизнеса на посещаемость сайта большое влияние оказывает сезонность, речь идет о так называемом сезонном трафике. Вопреки народной мудрости, лыжи и санки все же гораздо больше востребованы зимой, а кондиционеры – летом. Даже некоторые запросы имеют явную сезонную направленность, например, подледная рыбалка. Поэтому не стоит удивляться изменениям в объемах трафика с приходом нового времени года.
-Вирусы
Не секрет, что поисковые системы ограничивают доступ к сайтам, которые не внушают доверия, содержат вирусы или большое количество рекламы (кликандеров, попандеров и т.д.). Поэтому не забывайте проверять сайт на вирусы и не злоупотребляйте рекламой.
Этот вопрос рано или поздно волнует практически каждого владельца сайта. К сожалению, резкое падение трафика может произойти даже у хорошо оптимизированного ресурса, содержащего оригинальный контент и не злоупотребляющего внешними ссылками. Но зачастую подобные проблемы возникают вследствие ошибок и недоработок веб-мастера или оптимизатора сайта. В этой статье мы рассмотрим основные причины резкого падения трафика на сайт.
-Упали позиции в выдаче
Одной из причин сокращения трафика является проседание сайта в выдаче по значимым позициям. Ресурс становится труднее найти, вследствие чего уменьшается количество переходов из поиска. В некоторых тематиках большую часть органического трафика дают всего несколько высокочастотных запросов, находящихся в ТОПе. Проседание по этим позициям может существенно отразиться на общей посещаемости ресурса. Почему же падают позиции сайта?
-Фильтры поисковых систем
Фильтр – это своеобразный штраф поискиков за нарушение правил оптимизации, в результате которого сайт серьезно понижается в выдаче. Таким образом Google и Яндекс борются со спамом и вредоносными сайтами. В основном фильтры наказывают за переоптимизацию и применение черных методов продвижения. Например, фильтр «АГС» Яндекса предназначен для борьбы с сайтами, которые продают ссылки и не несут никакой пользы для обычных пользователей. Фильтр «Ты спамный» создан для борьбы с переоптимизированными страницами. В Google с подобной проблемой борется введенный в 2011 году алгоритм Panda.
Аффилиат фильтр накладывается Яндексом при обнаружении двух сайтов, принадлежащих одной компании. В результате по одному запросу может находиться только один, самый релевантный, аффилиат из группы. Причем по разным запросам будет находиться то один, то другой сайт, но не оба вместе.
У Яндекса также существует фильтр за накрутку поведенческого фактора и за очень длинные тексты на одной странице сайта. С точки зрения поисковых систем идеальный SEO-текст не должен превышать 2000-2500 знаков.
Для молодых сайтов у Google и Яндекса есть так называемая «песочница»; смысл фильтра в том, что новый сайт (моложе 6 месяцев) не может ранжироваться лучше авторитетных старых сайтов по высокочастотным запросам. Фильтр «минус 30» от Google борется со слишком активным и агрессивным продвижением сайта. Далеко не всегда сразу и точно удается установить, какой именно фильтр наложен и за что. Бывают ситуации, когда под фильтры попадают «белые и пушистые» с точки зрения SEO сайты. В любом случае необходимо сразу писать Платону Щукину в Яндекс.Вебмастере или в службу поддержки Google.
-Санкции за ссылки
Любой оптимизатор знает, что с внешними ссылками нужно быть очень аккуратным. Излишнее усердие в этом вопросе обычно приносит больше вреда, чем пользы. Особенную осторожность нужно проявлять при построении ссылочного окружения молодого сайта. Небезызвестный алгоритм Google Penguin, запущенный в апреле 2012 года для борьбы со спамом во всех его проявлениях, затронул более 3% англоязычных запросов и 5% русских. В результате многие сайты пострадали, потеряв от 10 и более позиций в выдаче.Снятие ссылок
При переходе из одной SEO-компанию в другую арендованные ссылки зачастую снимаются, что моментально и довольно существенно сказывается на позициях сайта. Это в свою очередь вызывает явление, известное как «мигание» ссылок - частое снятие или замена ссылок, которое негативно отражается на продвижении ресурса.
-Дубли страниц
Наличие дублей снижает позиции сайта, т.к. вместо продвигаемой станицы в выдаче может оказаться ее дубль. Дубли могут появляться вследствие неправильной работы CMS, так же их могут образовывать, например, страницы «версии для печати» или страницы с идентификаторами сессии и т.д. Подобные страницы сайта нужно обязательно закрывать от индексации в файле robots.txt.
-Не оригинальный контент
Для Яндекса большим авторитетом обладает первоисточник информации, и такие сайты в выдаче ранжируются выше. Поэтому мы своим клиентам рекомендуем размещать оригинальный контент или хотя бы качественный рерайт. При этом все новые тексты необходимо добавлять в специальный сервис Яндекса, тем самым указывая поисковику на первоисточник информации. В какой-то степени это также поможет защитить контент сайта от воровства.
-Медленная работа сервера
Пользователям не нравится, если сайт медленно загружается или происходят частые сбои при его работе, это повышает коэффициент отказов. Данный параметр так же учитывается поисковыми системами и негативно сказывается на ранжировании сайта.
-Изменения на сайте
Любые изменения на продвигаемом сайте необходимо согласовывать с оптимизатором. Чаще всего вред наносят:
- Изменение (url) без перенаправления на новый сайт, иными словами - битые ссылки;
- Смена дизайна;
- Смена CMS;
- Изменения файла robot.txt, приводящие к появлению страниц с ошибкой;
- Изменение значительных объемов контента на сайте;
- Наличие большого количества недоступных файлов, иллюстраций, ссылок, которые отдают 404-ошибку.
Необходимо поддерживать постоянную работоспособность и доступность всех файлов на сайте.
Сбои в работе процессов выгрузки каталогов из 1С и других учетных систем на сайт. Иногда поисковый робот заходит именно в тот момент, когда произошел какой-то сбой, каталог (некоторые параметры товаров, сами товары, иерархическая структура) выгрузился не до конца или вообще не выгрузился. Подобные случаи очень негативно сказываются на позициях сайта в выдаче.
-Доступность сайта
Для поисковых систем работоспособность сайта имеет определяющее значение, и если в момент индексации поисковый робот не может зайти на сайт дольше 24 часов, скорее всего, потери позиций в выдаче не избежать, особенно по топовым и высокочастотным запросам. Желательно поддерживать хостинг в полной суточной работоспособности, а так же не забывать вовремя продлевать срок регистрации домена, иначе можно моментально потерять нажитые годами позиции.
-Провайдер
Провайдер – это организация, предоставляющая доступ в интернет. По жалобе провайдера на нелегальный контент доступ к сайту может быть ограничен или заблокирован. Такая ситуация особенно распространена для торрентов, сайтов с фильмами и музыкой, но может произойти с любым сайтом при подозрении на пиратство.
-Сезонность
В некоторых сферах бизнеса на посещаемость сайта большое влияние оказывает сезонность, речь идет о так называемом сезонном трафике. Вопреки народной мудрости, лыжи и санки все же гораздо больше востребованы зимой, а кондиционеры – летом. Даже некоторые запросы имеют явную сезонную направленность, например, подледная рыбалка. Поэтому не стоит удивляться изменениям в объемах трафика с приходом нового времени года.
-Вирусы
Не секрет, что поисковые системы ограничивают доступ к сайтам, которые не внушают доверия, содержат вирусы или большое количество рекламы (кликандеров, попандеров и т.д.). Поэтому не забывайте проверять сайт на вирусы и не злоупотребляйте рекламой.
Комментариев нет:
Отправить комментарий