Что такое пессимизация сайта. Пессимизация и фильтры при ранжировании


что это, причина наложения фильтров

Тематический трафик – альтернативный подход в продвижении бизнеса

Мы выпустили новую книгу «Контент-маркетинг в социальных сетях: Как засесть в голову подписчиков и влюбить их в свой бренд».

Подпишись на рассылку и получи книгу в подарок!

Пессимизация сайта — это понижение поисковиком сайта в выдаче из-за применения запрещенных методов продвижения.

Термин появился в 2003 году в рамках определения принципов работы ПС Рамблер и закрепился в понятийном аппарате seo-специалистов несмотря на то, что Яндекс, Google и другие поисковики официально его не используют.

Как понять, что произошла пессимизация сайта

Необходимо с помощью специальных сервисов контролировать позиции по продвигаемым запросам. Панели вебмастера Яндекса и Google помогают следить за состоянием вебсайта и сигнализируют о неполадках.

Понижение позиций может произойти по нескольким причинам и не все из них фатальные:

Об этом же свидетельствует обнуление тематического индекса цитирования (тИЦ).

Типы пессимизации

В зависимости от того, кто найдет нарушения и наложит санкции, различают ручную и автоматическую пессимизацию.

Модераторы поисковых систем вручную обнаруживают и обрабатывают нарушения. Чтобы вывести сайт из-под такого фильтра, нужно устранить причины и направить письменное обращение, что проблемы устранены.

Однако наиболее часто встречающиеся случаи — это автоматическая пессимизация. Происходит она на основании анализа информации, собранной роботами поисковиков.

За что Яндекс и Гугл могут наложить на сайт фильтры и понизить позиции в выдаче

Существует ряд причин, почему поисковики могут пессимизировать сайты. Список, приведенный ниже, содержит наиболее частые из них, но не является исчерпывающим. Поскольку официальной информации на эту тему нет и быть не может во избежание недобросовестного использования.

Кроме того, ПС могут снижать позиции сайтов, которые не поддерживают актуальность информации, размещают множество отзывов, вызывающих подозрение, не предоставляют полезные опции посетителям. Например, если это каталог заведений, он должен предлагать не просто список мест, а предоставлять информацию по ценам, афишам, рейтингу, отзывам и т. д.

Как избежать пессимизации

Лучший способ не попасть под фильтры и избежать пессимизации при ранжировании — вести максимально легальные работы по оптимизации вашего ресурса и использовать только белые методы продвижения.

Если вы покупаете готовый сайт, который уже имеет какой-то возраст и историю, не пожалейте времени или средств сделать анализ состояния.

Используйте специальные сервисы — например, Вебмастер — чтобы контролировать рост позиций и другие важные факторы, типа процесс индексации, ссылки, ошибки, тИЦ и тд.

Если позиции упали, сайт перестал индексироваться, а вы «ничего такого, на ваш взгляд, не делали», свяжитесь с технической поддержкой. Там могут подсказать, в чем проблема, ее нужно будет устранить и сообщить об этом.

Относительно просто самостоятельно проверить тексты, картинки, title на уникальность. Проведите контентную оптимизацию: разбейте текст на абзацы, оформите заголовки и маркированные списки. Проанализируйте, нет ли избытка рекламы, других серых и черных методов продвижения. Проверьте ссылки, даже если их очень много, просмотрите все ли ваши, возможно имел место взлом.

Если пессимизация очевидна, а проблема неизвестна и самим обнаружить не удается, можно и нужно заказать аудит сайта у специалистов.

После устранения всех недочетов отправьте администрации ПС просьбу отменить санкции.

semantica.in

Пессимизация.

Что такое "Пессимизация"?

Одним из достаточно эффективных способов раскрутки Интернет-сайта является оптимизация текстов сайтов. Но случается так, что оптимизаторы используют слишком много повторений ключевых слов в тексте страницы. Наказание за такую бессмысленную процедуру носит название пессимизация.

Суть этого карательного момента владельца сайта заключается в понижении позиций ресурса в поисковых системах. Еще одно немаловажное последствие пессимизации – это отключение так называемого ссылочного ранжирования сайта.

Впервые термин «пессимизация» был использован в 2003 году разработчиками одной из популярных на сегодняшний день поисковых систем. Пессисизация бывает двух основных видов: автоматической и ручной. Итак, в чем же разница между первым и вторым вариантами?

Автоматическая пессимизация осуществляется поисковым роботом, который вычисляет слишком переоптимизированные страницы и понижает их ранг при запросе пользователей в поисковых системах.

Под ручной пессимизацией понимается накладывание на сайт специальных фильтров в результате сообщения от любого физического лица о том, что конкретный сайт нарушает те или иные правила.

Разумеется, наказание за нарушение правил вступает в силу после тщательной проверки Интернет-ресурса квалифицированными специалистами – модераторами.

Устранить все моменты пессимизации можно, но для этого владелец сайта должен исправить все недочеты своего детища и обратиться к сотрудникам службы поддержки поисковика.

Как спасти сайт от пессимизации?

Пессимизация - это снижение позиций сайта в результатах поисковой выдачи. Обычно это происходит в результате воздействия фильтров поисковых систем. Пессимизация позволяет очистить ТОП от малоинформативных и неинтересных сайтов. также для поисковиков пессимизация является эффективным способом воздействия на тех веб-мастеров, которые используют полулегальные или нелегальные методы раскрутки своих ресурсов.

Как же избежать пессимизации и спасти от нее сайт? Для этого следует пользоваться только "белым", то есть легальным продвижением сайтов, а также создавать такие ресурсы, которые будут соответствовать требованиям пользователей, а не поисковых систем.

Пессимизации могут подвергаться следующие виды сайтов: 1. Сайты, которые копируют или переписывают информацию с других ресурсов и не создают оригинальный контент на своем ресурсе. 2. Такие сайты и страницы, на которых главной целью является перенаправление посетителей на другие ресуры добровольно или автоматически при помощи редиректа. 3. Такие сайты, которые предоставляют информацию или товары по партнерским программам, но для пользователя не имеют никакой ценности. 4. Переоптимизированные сайты с текстами, "заспамленными" ключевыми словами.

Таким образом, следует избегать подобных ошибок. Чтобы сайт не подвергся пессимизации следует регулярно наполнять сайт новыми статьями, уникальной информацией, поменьше пользоваться редиректом и быть полезным для пользователей.

За что могут пессимизировать сайт?

Прежде всего оговоримся: не надо путать пессимизацию и бан. Если первая означает лишь искусственное снижение позиции вашего сайта при выдаче по запросам пользователей плюс отключение ранжирования ссылок, то при бане ваш сайт «выгоняют вон» из индекса поисковика.

Очевидно, что бан налагается за очень серьезные и систематические нарушения. За что же можно схлопотать пессимизацию?

Во-первых, ваш сайт могут пессимизировать за злоупотребление обменом нетематическими или автоматическими ссылками. (Отметим, что использование входящих ссылок пессимизацией не карается.)

Во-вторых, автоматическая пессимизация (усилиями поисковых роботов) применяется к «переоптимизированным» страницам. В таких случаях робот присваивает сайту специальный индекс, который понижает рейтинг данной страницы в выдачах поисковика по пользовательским запросам. Как результат, сайт при выдаче поискового результата может рухнуть на 50-60-е, а то и на 100-е место.

Отсюда логично вытекает требование: не заспамляйте свой сайт SEO-статьями. В случае ручной пессимизации (модераторами) вам возможно укажут на подобное нарушение и дадут срок для их исправления.

Ну и в-третьих, как ни огорчительно, сайт могут пессимизировать и ваши конкуренты - например, посредством Dos-атаки в момент произведения обновления, взломом сайта, закачкой вирусов и прочее. Об этом тоже следует помнить и принимать надлежащие меры защиты сайта от хакеров.

www.hmx.ru

Фильтры Яндекса и Google - пессимизация и бан

Здравствуйте всем, кто зашел на сайт http://beehive-software.com. Тема сегодняшней моей статьи напрямую связана с повышением ранжирования сайта и его релевантности.

Только речь в ней пойдет о тех ошибках, которые допускаются начинающими (и не очень) оптимизаторами при SEO продвижении сайта,  а также о фильтрах и причинах их применения в наиболее популярных поисковых системах Google и Yandex.

Оптимизация сайта для запросов в поисковых системах, на мой взгляд, напоминает хождение по канату, натянутому над огромной пропастью. Где любое твое неверное движение (ошибки при оптимизации), действия поисковиков против накрутки и спама (ветер), а также их сочетание грозят потерей равновесия (пессимизация сайта) и даже падением в эту пропасть (бан сайта).

И даже, успешно начав движение и не получая никаких замечаний от поисковых систем, нельзя быть застрахованным от того, что их алгоритм и методика оценки не изменятся и вы не попадете под санкции – пессимизация или бан сайта.

Немного позже я покажу на реальном примере, как старания SEO оптимизатора могут принести непоправимый вред, но вначале давайте познакомимся с матчастью.

Фильтры ранжирования сайта и пессимизация

Не будь на вооружении поисковиков этих фильтров, которые способны подрубить корни в выдаче даже сайтам, высоко релевантным поисковому запросу, все были бы ужасно счастливы. Что же это такое и почему поиск нуждается в этих инструментах?

Фильтры ранжирования – это то оружие, с помощью которого Гугл и Яндекс борются со спамом и мошенническими попытками накрутить релевантность и повысить уровень ранжирования.

Действительно, ведь что может быть проще, забить текст до отказа всевозможными ключевыми словами с уверенностью, что поисковые системы увидят, сколько раз упоминается на странице поисковый запрос, и скажут: «Ого, молодец, давай выдам я его повыше».

Но нет, Яндекс с Гуглом не дураки, понимают, что, кроме ключевиков, текст несет мизерную полезную информацию для пользователя и накладывают карающий фильтр.

А он, в зависимости от внутренних своих алгоритмов оценки, либо сразу отправит в бан, вычеркнув сайт из индексации, либо даст шанс, при этом существенно понизив показатель ранжирования. Эти же действия они применяют и для переспамленных анкор-листов и при искусственном искажении факторов поведения посетителей сайта.

Причем, как я сказал выше, алгоритм оценки действий по оптимизации меняется время от времени, подстраиваясь под хитроумные выдумки SEO-оптимизаторов, направленных на повышение показателей формулы релевантности раскручиваемого сайта.

В зависимости от времени приложения фильтра, способы оптимизации делятся на две группы:

1. Наложение фильтров происходит до расчета формулы ранжирования ресурса. При этом происходит существенное понижение степени влияния либо обнуление определенных показателей вашего ресурса.

Эти ограничения существенно препятствуют размещению сайта в верхних строках поисковой выдачи. К примеру, если поисковый робот заподозрит вас в манипулировании с входящими ссылками, то может просто приравнять к нулю показатель количества входящих на ваш сайт ссылок, как будто их и нет вовсе.

Предварительный фильтр никак не влияет на последующий расчет согласно формуле ранжирования, однако из-за сниженного или нулевого показателя какой-либо ее составляющей, рейтинг сайта будет существенно отличаться от настоящей релевантности.

2. Применение фильтра происходит после расчета формулы рейтинга сайта. Тут все просто – показатель релевантности снижается на то количество единиц, которое определил фильтр. Одним из подобных фильтров в Яндексе является так называемый «портяночный фильтр».

Он применяется и очень чувствительно опускает сайт в поисковой выдаче за слишком частое вхождение ключевых слов в содержимом (переспамленность).

Теперь я вам расскажу о том, что может повлечь за собой пессимизацию сайта, то есть, за что понижают сайты в рейтинге:

Аффилированность сайта. Чтобы избавить от конкурентов вверху поисковой выдачи и соответственно увеличить целевой поток посетителей, владельцы или SEO-оптимизаторы прибегают к разным хитростям. Одна из них заключается в том, чтобы «выдавить» конкурентов с помощью специально созданных нескольких ресурсов, аналогичных основному, и раскручиваемых по тем же ключевым запросам.

Получается, что вверху выдачи «топчутся» на первый взгляд разные, но принадлежащие одному владельцу сайты. Поисковики научились это вычислять, и фильтруют ресурсы за аффилированность, оставляя всего один результат, а остальные исключают, маркируя их зеркалами.

Любопытно, но на данный момент алгоритм этого фильтра не совершенен, и это дает возможность использовать его для нечестной конкурентной борьбы. После мовершения определенных действий поисковики начинают считать ваш ресурс аффилированным с сайтом какого-либо конкурента, и при этом именно ваш «назначают» главным, а конкурента-«зеркало» вообще исключают из выдачи по данному запросу.

И что самое главное, все «по закону». Чистый мат. Предлагаю ознакомиться с этим мошенническим способом и понять, как бороться с киберрейдерами, и посмотреть данное видео:

Фильтр на одинаковый сниппет. Сниппет – это описание ссылки, которое показывается вместе с ней в результатах поисковой выдачи. Поисковики могут самостоятельно генерировать его из контента данной страницы, либо он может задаваться вручную с помощью мета-тега Description.

Однако, случается такое (особенно в случае интернет-магазинов), что бывает лень или не хватает времени написать его самостоятельно, но вроде бы надо. И его попросту копируют либо с каталога, либо с сайта производителя или конкурента.

В подобном случае возможна такая ситуация, что несколько ресурсов при одном и том же поисковом запросе имеют одинаковые (полность либо до определенного показателя) сниппеты. Поисковые системы этого не любят и оставляют в результатах выдачи только один ресурс, который, однако, может не всегда быть самым релевантным.

Фильтры за качество содержимого.

1. В случае переспамленности текста (крайне высоком содержании в нем ключевых слов), поисковые системы применяют упомянутый мною ранее «портяночный фильтр». Он обособлен от поисковых запросов и применяется, в основном, к коммерческим (купить, заказать и т.д.), и на вероятности его наложения может сказаться значимость, проверенность самого ресурса.

К примеру, у вас в тексте (пусть и достаточно объемном) содержится, скажем, сорок упоминаний ключевого коммерческого запроса. Это с печальной уверенностью гарантирует вам применение портяночного фильтра и уменьшение релевантности данной страницы на размер порядочного штрафа, способного выкинуть ее даже из ТОП 100 выдачи по конкретному запросу.

Избежать применения данного фильтра к вашим текстам можно выполняя несколько простых правил:

2. Фильтр за переоптимизацию. В отличие от портяночного, данный фильтр не привязан к количеству ключевых слов в документе. Он призван бороться с желанием повысить релевантность страницы путем махинаций с текстовыми факторами ранжирования.

Его сфера интересов практически полностью ограничена запросами для коммерческой выдачи, и наложение происходит полностью на всю страницу, независимо от того, по какому количеству запросов она продвигается.

Но штраф при его наложении существенно ниже, чем в случае портяночного фильтра. Он составляет десятка два позиций, что, естественно, тоже выкидывает вас с вожделенного ТОПа.

Фильтры за неуникальность текста. Об этом и говорить нечего – копипаст, то есть, банальный плагиат никто не любит, даже Гугл с Яндексом.

Фильтры за качество входящих ссылок.

  1. Покупка SEO-ссылок. Нынешние поисковые системы умеют с достаточно высокой точностью выявлять покупные входящие ссылки на сайт. Однако действие этого фильтра достаточно непонятное, поскольку, к примеру, для коммерческих запросов ссылки подобного рода оказывают положительное действие, повышая релевантность. Правда, работает это на 100% в случае покупки ссылок с авторитетных в поисковых системах, проверенных ресурсов.
  2. Ссылочный взрыв. Яндекс и Гугл (особенно последний) накладывают этот фильтр за неправдоподобно резкое увеличение количества входящих на сайт ссылок. Поэтому, для грамотного продвижения ссылочной массой существует золотое правило «спеши не торопясь», производя наращение около десяти ссылок в неделю.
  3. «Некачественная ссылочная масса». Ссылки с ненадежных, потерявших доверие поисковых систем, сайтов, тоже могут привести к наказанию фильтром.
  4. Активное участие в специализированных биржах по автоматическому обмену ссылками (линкаторах) также влечет за собой понижение релевантности (пессимизации) из-за фильтрационных санкций.

Повышение релевантности может грозить попаданием под фильтр

Матчасть, вроде бы, прошли, теперь давайте поговорим о тех жульнических действиях, которые вместо увеличения рейтинга могут подвести все ваши действия под фильтр поисковых систем, и даже бан сайта.

Отмечу сразу, все, что я хочу вам рассказать, - это не мои догадки и домыслы. Вся информация взята из первоисточников, у самих поисковых систем, любезно предоставляющих информация о разрешенных и запрещенных методах повышения ранжирования сайта.

Но перед тем как приступить к сути повествования, хотелось бы напомнить о легальных и грамотных способах повысить релевантность.

Ранее я уже отметил необходимость грамотно оптимизировать тексты сайта под поисковые запросы. Также, следует, не дожидаясь пока поисковики соизволят самостоятельно вас заметить, показать им свой новый сайт или его важные обновления в раздел add URL (так называемая аддурилка).

Большое влияние на показатель ранжирования оказывает степень доверия к сайту (траст). Его увеличение происходит с помощью обратных ссылок с ресурсов, у которых степень доверия выше, чем у вашего. Поэтому следует стараться добавить сайт в Яндекс.Каталог, а также попасть в такие авторитетные каталоги как Dmoz и прочие подобные ресурсы.

Теперь давайте перейдем непосредственно к запрещенным приемам раскрутки. Поисковые системы могут не только менять степень релевантности страниц к поисковым запросам, но также, при попытке обмана, налагать штрафы и отправлять полностью весь ресурс в черный список.

В лицензиях поиска все запрещенные действия указаны и расписаны, тем самым предотвращая возникновения каких-либо претензий со стороны владельцев интернет-ресурсов. Так, лицензия на использование поисковой системы Yandex о самом ранжировании говорит следующее:

Первый абзац описывает принципы ранжирования ресурса, которые ожидаемо основаны на соответствии контента поисковым запросам (на релевантности), причем это осуществляется абсолютно независимым от влияния извне роботом.

При этом указано, что алгоритмы оценки могут меняться, и ресурс будет «плавать» в результатах выдачи.

Важной является информация в п.3.5. В нем Яндекс явно указывает, что приоритетом его принципов ранжирования является пользователь, посетитель ресурса, его интересы и удобства. Тем самым поиск пресекает всяческие возражения владельцев и создателей о некорректной на их взгляд оценке релевантности, мол, «наш ресурс такой красивый, а вы с ним так поступаете…».

Далее, в п.3.7. прямым текстом сказано, что SEO оптимизация, неважно, кем она проводится, опытным мастером или еще новичком, – это обман поисковых систем с целью увеличения релевантности страниц сайта. Здесь же звучат угрозы фильтрами, пессимизацией (понижением в выдаче) или удалением из индекса всего ресурса вообще (бан).

Кроме этого, факт каких-либо изменения в ранжировании владельцу не сообщается, а также не гарантируется снятие штрафных санкций или бана.По правде сказать, как показывает практика, если общаться со службой поддержки Яндекса вежливо и корректно, то выяснить причину и избавиться от санкций можно, хотя понервничать все равно придется.

Далее в поисковых правилах Яндекса он снимает с себя всякие обязательства по разъяснению причин бана или понижения рейтинга и предлагает изучить документ под названием «Чем отличается качественный сайт от некачественного с точки зрения Яндекса». Чем мы с вами сейчас и займемся.

Пессимизация сайта Яндексом. За что?

Раздел «Основные принципы» рассказывает нам, каким должен быть сайт, находящийся в индексе Яндекса. Эти показатели достаточно логичны, справедливы:

  1. Продуманное юзабилити
  2. Забота о посетителях ресурса, т.е. Сайт Для Людей (СДЛ)
  3. Качественный, оригинальный контент
  4. Продвижение должно быть по тем поисковым запросам, информация о которых полностью раскрывается в контенте сайта
  5. Не любит Яндекс платное размещение ссылок на страницах ресурсов

Это все понятно, и, как я уже сказал, справедливо. Но нас интересует другое – за что Яндекс пессимизирует сайты? Читаем дальше раздел «Примеры к принципам»:

Да, вполне вероятно, что малая доля неуникального содержимого по сравнению со всем контентом сайта не сможет существенно ухудшить его позиции, но всему есть граница, и перейдя ее можно получить по заслугам от фильтра и чувствительно потерять свои позиции.

Идем далее.Некоторое время назад была весьма популярна стратегия продвижения в ТОП выдачи поисковых систем из разряда «черного SEO». Принцип ее заключался в следующем.

Страницы создавались автоматически специальными скриптами, которые прописывали в их тексте нужное количество ключевиков. При этом сам текст представлял собой сгенерированный бессвязный набор слов. Естественно, благодаря ключевикам, этот дорвеи попадал в ТОП, а пользователь, зайдя на него, перенаправлялся на нужный ресурс, ради продвижения которого этот дорвеи и создавался.

И хотя поисковики серьезно взялись за разоблачение и пресечение подобных ресурсов, до сих пор остаются еще такие товарищи, которые пытаются пролезть через фильтры, грозящиеся отправить в бан.

Далее Яндекс рушит надежды на использование еще совсем недавно популярных методов раскрутки и продвижения, а именно продвижение с помощью каталогов и заключение текста с ключами в невидимые на первый взгляд элементы.

Тут все понятно, описанные каталоги уже понижены Яндексом в ранжировании, невидимый и скрытый техническими способами текст прекрасно распознается карающим роботом, поэтому, чтобы не нанести вред своему ресурсу, связываться с этим не стоит.

Следующий способ, от использования которого нас предостерегает Яндекс, - это клоакинг.Клоакинг реализуется в процессе программирования сайта и заключается в идентификации владельца запроса к странице сайта. Если запрос идет от пользователя, ему показывается реальное содержимое страницы, а в случае бота поисковой системы, - содержимое, высоко релевантное запросу.

Далее Яндекс кидает камень в сторону тех, кто создает сайты исключительно для заработка по различным партнерским программам.Хотя, должен ради справедливости отметить, что достаточно большое количество подобных сайтов успешно существуют и обходят все заслоны поисковых систем.Со следующими двумя пунктами я, поскольку являюсь не только веб разработчиком, но и пользователем, согласен на все 100500%!Что касается моего мнения по поводу наказания подобных ресурсов, я бы их не пессимизировал, а сразу отправлял бы в пожизненный бан. И эту свою позицию я считаю не такой уж и жестокой и несправедливой, думаю, вы согласны?

Достаточно часто в недавнее время можно было встретить сайты, которые продвигались подобным методом спама, искусственно повышающим релевантность: на страницах размещался длинные список поисковых запросов, по которым этот сайт якобы находили пользователи.

Вполне логично, что пользователи и поисковые системы негативно относятся к тому, что содержимое по своей сути не соответствуют тому запросу, по которому пользователь попадает на сайт. Поэтому, фильтры поисковиков серьезно пессимизируют подобные ресурсы вплоть до бана.Сейчас еще достаточно часто можно встретить различные плагины, позволяющие «продвигать» подобным спамом, но я настоятельно советую обходить их десятой дорогой.

Кстати, интересный момент: этот фильтр может заподозрить в спаме даже обычное «облако тегов». Обидно, печально, но, увы, это так. До совершенства алгоритму фильтрации еще далеко.

Еще один пункт грозит штрафами за аффилированность ресурсов.Способ, по которому некоторые владельцы (зачастую интернет-магазинов) пытаются бороться с конкурентами и перехватить большую часть поискового трафика заключается в следующем.

Создается несколько ресурсов, предлагающих аналогичные товары или услуги, но имеющие отличные доменные имена. Они продвигаются по одинаковым запросам, к которым их содержимое высоко релевантно. Через определенное время они полностью занимают собой ТОП в поисковиках.

Да, для владельца это хорошо, но вот самим поисковым системам не нравится этот способ нечестно конкурентной борьбы. Они выявляют подобные ресурсы по некоторым признакам, а зачастую, по жалобным запросам самих конкурентов.

Но здесь мы говорим о том, как поисковики находят аффилат ресурсы, поэтому приведу данные, как это реализуется. А делают они это путем поиска совпадения данных, найденных на сайтах с разными доменными именами:

Далее следуют два логичных пункта, указывающие на недопустимость ресурсов, на которых есть возможность неконтролируемого проставления ссылок, а также тех, которые продают ссылки для искусственного повышения релевантности других сайтов.По поводу последнего пункта хочется отметить, что не все ресурсы имеют шансы попасть под его действие. В основном это грозит ссылочным биржам типа Sape, а продажа «вечных ссылок» через такие авторитетные биржи, указанные ниже, достаточно безопасна.

  1. Miralinks
  2. Rotapost
  3. Getgoodlinks
  4. Gogetlinks  

Популярный не так давно метод продвижение с помощью сайтов-сателлитов также попал в поле зрения поисковиков и ныне наказуем. Его суть заключалась в следующем.

Создавались дополнительные ресурсы, на которых активно размещались ссылки на продвигаемый сайт. Поисковые системы считают это искусственным накручиванием релевантности, поэтому стремится выявить эти спутники и отправить их в бан.Поиск по сайту можно реализовать различными способами, начиная от скриптов Гугла и Яндекса, заканчивая внутренними средствами CMS, на которой создан сайт. Но, так или иначе, страницы, показывающие результаты этого поиска, не должны индексироваться, т.е. должны быть закрыты в файле robots.txt.Печальная история SEO-оптимизации

Думаю, вы достаточно тесно познакомились с тем, как должен выглядеть сайт в понимании поисковых систем и с тем, чего они категорически не приемлют. Теперь хочу поведать вам обещанную историю о том, как действия, направленные на повышение позиций ресурса в поисковых системах, могут оказать обратное действие, существенно снизив его позиции.

Весной 2012 года ваш покорный слуга заметил значительное уменьшение поискового трафика по сравнению с его оптимистичным ростом до этого момента. Кстати, это снижение совпало аккурат с введением Гуглом в действие «милых» зверюшек – Пингвина и Панды.

Для тех, кто не в курсе, поясню:

Панда – фильтр поисковой выдачи от компании Google. Он карает за некачественные входящие и исходящие ссылки, высокий процент отказов и недолгое время, проведенное пользователем на сайте, большое количество рекламы и неуникального контента. В новой версии, появившейся как раз той злополучной весной 2012, был сделан акцент именно на качестве ссылочной массы.

Пингвин – новый на то время фильтр, специализирующийся исключительно на ссылках. Он проводит анализ на предмет их естественности, а также реагирует на количество ссылок и скорость его изменения.

Итак, продолжу. Поначалу у меня не возникло особых опасений по поводу уменьшения трафика. Оно было связано только с Гуглом, на Яндексе же, наоборот, прежний рост продолжался. Однако, с каждым очередным обновлением фильтров Гугла, падение все сильнее ускорялось. И опять я не бил тревогу, поскольку Яндекс радовал день ото дня, приближая трафик с его поиска к заветному числу 10000 пользователей в день, тем самым ощутимо компенсируя потери от другой поисковой системы.

Катастрофа случилась в начале апреля 2013 года, когда сразу же после планового обновления поисковой базы Яндекса я потерял около 1500 посетителей. Дальше – больше, и уже через 2-2,5 недели ежедневный трафик с поиска Яндекс на мой сайт упал до показателя 2000 переходов.

Вот только тут, как говорится, когда жареный петух клюнул, я и начал бить тревогу. Разумеется, я понимал, да и на всех SEO форумах об этом говорили, что правды следует искать только у непосредственного «виновника» ситуации, - на самом Яндексе.

В подвале сервиса «Инструмент для вебмастеров от Яндекса» я перешел по ссылке «Обратная связь» и написал:

Добрый день!

Вчера мною было отмечено уменьшение количества переходов с поиска Яндекса на мой сайт ХХХ. Сегодня я вижу еще большее уменьшение трафика.

Насколько я знаю, вчера было очередное обновление вашей поисковой базы, но я не пойму причин своего падения. Вирусы на моем сайте отсутствуют, сам сайт доступен, обновление материалов происходит регулярно… Подозреваю, что меня за какое-то нарушение оштрафовали.Очень хочу узнать у вас реальные причины данной ситуации и мои последующие действия по ее исправлению.

Заранее спасибо.

Вера в то, что после пары обновлений поисковых баз все встанет на свои, прежние места, исчезла после того, как я получил долгожданный ответ от техподдержки Яндекса.

Здравствуйте!

Наши алгоритмы проанализировали ваш сайт и обнаружили, что содержание части страниц вашего сайта может иметь отрицательное действие на ранжирование. Наш робот обнаружил страницы, которые содержат текстовые фрагменты, рассчитанные не на пользователя, а исключительно на поисковых роботов.

В частности он обнаружил списки поисковых запросов. Исходя из того, что Яндекс не в состоянии ранжировать подобные страницы в достаточной степени корректно, было произведено понижение позиций Вашего сайта в поисковой выдаче.

Если есть возможность безболезненно для Вашего сайта избавиться от подобных элементов, сделайте это, либо подкорректируйте их с целью более адекватного восприятия посетителями Вашего ресурса.

Анализ Вашего сайта производился комплексной оценкой, поэтому Вам следует проверить, кроме самих текстов, также содержимое ссылок и тегов (в т.ч. title).После проведенных изменений, сообщите нам, пожалуйста, и мы заново проведем анализ Вашего сайта на предмет внесенных исправлений.

-------С уважением, Платон Щукин

Служба поддержки Яндекса

После этого я серьезно засел за поиск информации на самых заслуженных и уважаемых сайтах и блогах гуру СЕО оптимизации. Достаточно быстро мне стало понятно, что превышением уровня тошноты текстов (превышение оптимального количества ключевиков, чрезмерное увлечение тегом <strong>) такая пессимизация моего сайта не могла быть вызвана.

Скорее всего, причина крылась в переоптимизованности заголовков (title), и все той же перетошнотностью, но не текстов, а из-за большого количества повторяющихся ключевиков в Title и Alt тегов изображения <IMG> на моем сайте.

Еще при самом создании своего сайта я взял себе за правило заполнять вышеупомянутые атрибуты, давай описание того, что реально на изображении видит пользователь. Это позволило бы захватить еще и ранжирование по картинкам, тем самым создав дополнительный источник трафика.

Долгое время это приносило свои положительные плоды, количество посетителей росло, и я, руководствуясь правилом «если работает, ничего не трогай», продолжал заполнять эти атрибуты описанием того, что именно показано на картинке.

Однако именно это и сыграло со мной злую шутку. Если бы, к примеру, я иллюстрировал картинками достопримечательности Парижа, заполнение данных атрибутов не смогли бы мне повредить, то в случае со скриншотами в статье, скажем, про Гугл Аналитикс, содержащей их несколько десятков, это оказалось весьма плачевным.

На каждом был показан именно этот инструмент Гугла и, естественно, я заполнял атрибуты так, чтобы в них было упоминание, связанное с «Гугл Аналитикс». И тем самым я переоптимизировал статью, добавив (из самых благих намерений) в ее тело пресловутые «списки поисковых запросов».

Осознав вред от этих действий (и к тому же бесполезность, так как трафик картинки приносили мизерный) я провел трехдневную работы по полному удалению этих атрибутов из всех статей моего сайта. После чего с возросшей надеждой написал второе письмо в службу технической поддержки Яндекса.

Холодный ветер реальности и трезвый взгляд в будущееПара дней ожидания ответа и вот он перед моими глазами. Вначале я очень обрадовался ему, зарядился оптимизмом, однако чуть погодя, понял, что он не содержит никаких обещаний, что фильтр отвернет от моего сайта свою карающую длань, мне предлагали всего лишь «подождать».

Здравствуйте.

Вы устранили причины, из-за которых Ваш ресурс был подвергнут понижению в рейтинге. Решение о прекращении санкций в отношении Вашего сайта будет принято ориентировочно через месяц после проведенной нами новой проверки.

Во время ожидания решения, Вы можете совершать на своем ресурсе какие угодно действия, запланированные Вами, главное условие – во время проверки на сайте должен присутствовать контент, который будет доступен для индексации.

Кроме этого, мы советуем Вам ознакомиться с рекомендациями наших специалистов по оптимизации сайта:

http://help.yandex.ru/webmaster/recommendations/intro.xmlhttp://company.yandex.ru/rules/optimization/index.xml

-------С уважением, Платон Щукин

Служба поддержки Яндекса

Как вы уже, наверное, догадались, никто мой сайт из-под фильтра в указанный срок так и не вывел. Я подозревал, что виною тому майские праздники, которые «растянули» обещанный месяц ожидания, но все равно решил, что за спрос не бьют, и написал еще раз уточняющий вопрос в службу Платона Щукина. Мною был получен ответ, оборвавший в моем сердце оставшуюся струну надежды.

Здравствуйте.

С сожалением вынуждены Вам сообщить, что наши алгоритмы, проведя повторную проверку, решили не снимать с Вашего ресурса санкции. Во избежание повторения подобных ситуаций настоятельно рекомендуем Вам ознакомиться со следующим:

http://webmaster.ya.ru/replies.xml?item_no=11464http://company.yandex.ru/rules/optimization/index.xml

Соблюдая данные рекомендации, Вы сможете со временем улучшить позиции Вашего сайта.

-------

С уважением, Платон Щукин

Служба поддержки Яндекса

Контрольным выстрелом стало то, что пока я выяснял отношения с Яндексом, Гугл отвернулся от меня полностью. Возможно, произошли еще какие-то апдейты его фильтров, а возможно он коррелирует свои действия с Яндексом, полагая что «если тот не хочет ставить на хорошие позиции, то и я не буду». Как говорится, грусть-тоска.

Хватаясь, как утопающий за соломинку, я написал очередное письмо Платону, в котором спросил его о возможности ручного снятия фильтра. Но таковых возможностей у них, вполне ожидаемо, не оказалось.

Однако, этот их последний ответ дал-таки вполне конкретное указание как самостоятельно выбраться из-под фильтра Яндекс.

Здравствуйте.

Сожалеем, но ручная коррекция решений алгоритма не предусмотрена.

Также, техподдержка не сможет дать Вам конкретных путей решения Вашей проблемы.

Единственно, можем подсказать, что корректировка текстов, направленная на снижение чрезмерного количества ключевых слов, как показывает практика, может принести максимальный результат.

-------

С уважением, Платон Щукин

Служба поддержки Яндекса

Я внял этому их последнему совету и вплотную занялся коррекцией текстов. И знаете что? Я ужаснулся! Если в последнее время я старался серьезно контролировать стиль, показатель тошноты и т.п., то ранние мои статьи прямо-таки кишели подобным.

Если вы думаете, что теперь с моим сайтом все в порядке в плане корректности написания текстов, то вы глубоко ошибаетесь. Даже если я больше ничем не буду заниматься целый день, кроме коррекции, я сделаю три, ну максимум пять полноценных, качественных статьи. А их у меня несколько сотен. Так что, в недалеком будущем мне есть чем заняться.

К слову хочу сказать, что общение со службой поддержки Гугла (с помощью сервиса Гугл Вебмастер) тоже закончилась безрезультатно. Мне было сказано, что никто не применял ручные фильтры, а автоматические они не корректируют.

beehive-software.com

Пессимизация сайта

Пессимизация это падение позиций сайта в поисковой выдаче, причем потеря позиций является принудительной. Пессимизация сайта бывает автоматической и ручной. При автоматической снижение позиций наступает в следствии обнаружения роботом нарушений тех или иных способов оптимизации. Ручная – когда в службу Яндекса поступают жалобы на определённый сайт. В этом случае модераторы проверяют сайт и устанавливают справедливость обвинений. Если обвинения подтверждены, то сайт или страница снижаются в позициях.

Причины пессимизации сайта

 Причин пессимизации несколько.  Чаще всего это нарушения при оптимизации сайта и его продвижении. Слишком большое количество ключевых слов на странице. Не качественный или нечитабельный текст. Наличие на сайте линкопомойки (большого количества исходящих ссылок на одной или нескольких страницах). Исходящие ссылки на некачественные сайты. Большое количество входящих ссылок с некачественных сайтов. Слишком быстрый прирост внешних ссылок.  Следующей причиной пессимизации сайта является плагиат. Методы наказаний сайтов за плагиат становятся всё серьёзней. Но причиной пессимизации может быть не плагиат, а не уникальность статьи. Причем не уникальность в пределах этого же сайта. Случается это когда дубли страниц попадают в индекс. Какой бы статья не была золотой, если она доступна по нескольким адресам – значит она не уникальна.  Поведенческий фактор. Поисковые системы отслеживают поведение посетителей на сайте. Если очень большое количество отказов, посетитель сразу покидает сайт, значит ему не место в топ выдачи.  Реклама. Большое количество рекламы на сайте. О всяких всплывающих окнах я даже говорить не буду. Здесь идёт речь о большом количестве баннерной, тизерной или контекстной рекламы. Поисковики решили, что большое количество рекламы мешает посетителю. Вопрос спорный, но не о нём сейчас идёт речь.

Как определить пессимизацию сайта

 При всей кажущейся простоте это не так легко сделать. Нет, конечно, если позиции сайта по тем или иным запросам были в топ, а потом оказались на сотом месте, то здесь всё очевидно. Но пессимизация может быть и не такой жесткой. Падение позиций может произойти на 20-30 пунктов, а это может произойти и вследствие естественных причин. Для выявления пессимизации необходимо отслеживать позиции сайта по определённым запросам. Для этого есть масса программ и сервисов, как платных так и бесплатных. И если падение позиций произошло резко, то стоит обратить на это внимание.  Так же показателем пессимизации может быть резкое падение числа входящих ссылок. Яндекс может перестать учитывать ссылки на сайт.

Как бороться с пессимизацией сайта

 Борьбой с пессимизацией является устранение причин, которые её вызвали. Возможно, необходим будет полный аудит сайта. Если вы не можете сделать его сами, то придётся обращаться к специалистам. Если пессимизирована одна или две страницы, то здесь определить причину значительно легче, а если весь сайт…  Не стоит производить закупку ссылок на пессимизированые страницы. Это будут выброшенные деньги.  Проверьте уникальность контента. Для этого есть бесплатные ресурсы. Дело в том, что его могли украсть и опубликовать на других ресурсах. В случае обнаружения воровства надо переписать статью. Доказывать своё авторство бесполезно. Поисковики стремятся изменить ситуацию в этом вопросе, но пока результатов не видно.  Проверьте сайт на индексацию дублей страниц. Укажите каноническую страницу с помощью тега rel="canonical"  Проверьте тексты на орфографические ошибки. Большое количество ошибок часто становятся причиной в понижении позиций.  Проанализируйте входящие ссылки. Удалите ссылки с некачественных сайтов. При установке ссылок анализируйте не только показания тИЦ и PR, но и рейтинг Alexa. Если сайт имеет рейтинг в несколько миллионов, то ставить ссылку на него не желательно. Также просмотрите анкор лист. Ссылки должны быть с разными анкорами. Если на ваш сайт ведут 50-100 ссылок с одинаковым анкором, то это прямая дорога к падению позиций.  Проверьте сайт на наличие вредоносного кода. Это можно сделать в панели веб-мастера как Яндекса, так и Google.  Проверьте сайт, с помощью RDS bar или другого сервиса, на наличие скрытых ссылок. Чаще всего скрытые ссылки на хорошие сайты не ведут.  Удалите страницы (если они есть) с линкопомойками. Просмотрите все исходящие ссылки.  Отслеживайте поведенческий фактор. Если процент отказов очень большой ищите причину. Используйте веб-визор в Яндекс метрике. С его помощью вы сможете установить, когда и почему посетитель покинул сайт.  Уменьшите количество рекламы. Особенно это касается страниц с маленьким количеством текста.  Внимательно перечитайте инструкции для веб-мастеров о качественном сайте. Возможно, там вы найдёте причину по которой сайт подвергся пессимизации.  Найдя и устранив причину, пишите в тех поддержку поисковиков.  Честно говоря всего этого легче избежать, чем исправлять. Относитесь с уважением к творению своих рук. Пишите уникальные тексты. Не можете сами написать, заказывайте у тех кто этим зарабатывает себе на жизнь. Перед публикацией добавьте текст через панель веб-мастера Яндекс в уникальные тексты. Пока результатов этой функции не видно, но возможно в ближайшем будущем мы сможем избежать многих проблем.  Регулярно обновляйте свой сайт и делайте его интересным для людей.

 

 

www.sdelaysitesam.info

Пессимизация сайта в Яндекс и Гугл

Ранее мы рассказывали, что бан поисковой системы обычно можно получить в очень редких случаях, когда вы сами целенаправленно нарушаете общепринятые нормы в борьбе за более высокую позицию в поисковой выдаче и привлечении посетителей. Но иногда можно столкнуться с ситуацией, когда на ваш сайт накладывают санкции (не бан), а вы даже не знаете за что.

В таких случаях говорят, что он «попал под фильтр» или «пессимизацию» . Причин может быть довольно много, давайте рассмотрим это более подробно.

Пессимизация сайта — действия поисковой системы, направленные на искусственное понижение позиций определенного сайта в списке поисковой выдачи. Чаще всего используется в качестве меры наказания чересчур оптимизированных ресурсов.

Какие сайты попадают под пессимизацию

Чаще всего, под фильтры и понижение в выдаче попадают проекты, вебмастеры которых слишком уж перестарались пытаясь их максимально оптимизировать. Их контент содержит большую плотность ключевых запросов, снижающую его информативность для потребителя, удобство чтения, а также доверие к достоверности изложенной информации. В результате получается переоптимизированный сайт.

Поисковые системы, чьей целью является поиск и предоставление информации, максимально релевантной запросам пользователя, считают справедливым накладывать на такие ресурсы определенные санкции, значительно понижающие их позиции.

Кроме того, причиной пессимизации может стать нетематический или автоматический обмен ссылками, который воспринимается как продажа линков.

Виды пессимизации

По способу обнаружения переоптимизированных сайтов и их понижению в выдаче пессимизация может быть:

Автоматическая пессимизация

Все страницы в индексе поисковой системы регулярно сканируются специальным роботом-пессимизатором. Его задачей является выявление страниц с плотностью ключевых вхождений, не отвечающей требованиям поисковых систем, то есть значительно их превышающей.

По нашему опыту, примерная граница — это порядка 7-10%. Если её превысить — неминуемо последует наказание рано или поздно.

Найденным в ходе сканирования страницам с переоптимизированным контентом, робот присваивает коэффициент пессимизации, негативно влияющий на ранжирование страницы в поисковой выдаче.

Ручная пессимизация

Применяется модераторами поисковой системы к определенному сайту после рассмотрения информации, предоставленной сторонним пользователем, о нарушении этим сайтом определенных правил — это уже указанные выше нетематические и автоматические ссылки. Иногда бывают и другие причины, вроде пропаганды насилия, но за это чаще дают полноценный бан (полностью исключают из поиска).

Способы пессимизации

При пессимизации сайта, он не выпадает из индекса поисковой системы и даже остается в поисковой выдаче. Само наказание заключается в значительном понижении позиции в выдаче.

Значительном настолько, что сайт не останется ни в ТОП-50, ни в ТОП-100, даже если до этого он был лидером и находился на верхних строках первой страницы.

В качестве санкций, применяемых поисковыми системами к сайтам во время пессимизации, используются:

Можно ли вывести сайт из пессимизации

Да, наложенные фильтры и санкции обычно являются обратимыми. Позиции сайта могут быть восстановлены после приведения количества ключевых запросов в контенте сайта к уровню, удовлетворяющему поисковую систему.

В случае автоматического варианта робот-пессимизатор во время очередного сканирования, так же автоматически уберет присвоенный коэффициент пессимизации, как ранее его присвоил.

Фильтры — следствие ручной пессимизации сайта — могут быть сняты после устранения причин, приведших к санкциям, и последующего обращения в службу поддержки. Однако, процесс этот достаточно длительный, и лучше заведомо не допускать причин, которые могут привести к пессимизации.

Признаки пессимизации

Сигналом о том, что сайт попал под действие пессимизации, может служить его исчезновение из ТОП-50, 100, а также обнуление его индекса цитирования. Удостовериться в том, что поисковой системой наложены санкции пессимизации, можно в соответствующих кабинетах каждой поисковой системы.

Так, в панели вебмастера Яндекса можно посмотреть тИЦ сайта и информацию об проиндексированных страницах, а также важные сообщения от системы.

А в панели вебмастера Google — посмотреть текущий статус вашего сайта со всеми ошибками, индексированными страницами и письмами системы с предупреждениями.

Также стоит прочитать

sitesnulya.ru

Пессимизация сайтов | Блог Александра Шихова

Пессимизация – фильтр поисковых систем, который заключается в том, что для определенного сайта отключается ссылочное ранжирование. Позиции такого ресурса в выдаче стремительно падают, потому что ссылки, естественные или купленные, больше не работают. Под стремительным падением подразумевается смещение позиций на сотню или две. Если позиции упали на пару десятков, то, скорее всего, причина кроется в другом. При пессимизации все страницы ресурса не пропадают из поиска и не выпадают из выдачи, но становится невозможным поднять позиции сайта, поскольку ссылочное ранжирование прекратило свою работу для этого проекта.

Главной причиной попадания под этот фильтр является «свалка ссылок», которая есть на сайте. Так называют каталоги ссылок, которые размещаются на страницах ресурса с одной лишь целью: манипулировать поисковыми выдачами. В былые времена на многих сайтах существовали каталоги ссылок, которые не проходили модерацию и под пессимизацию попадали многие проекты, но эти времена прошли.

Сегодня, зарегистрировав свой ресурс в каком-либо каталоге, категорически не рекомендуется размещать на нем баннеры или обратные ссылки на этот каталог. Потому что пользы это вам не принесет, а шансы попасть под фильтр возрастут в разы.

Большое количество продажных ссылок тоже приводит к пессимизации, поэтому тщательно проверяйте страницы своего проекта, а также статьи, на них размещенные, на предмет таких ссылок. На одной странице сайта не должно присутствовать больше 5 продажных ссылок.

Следует уделять внимание и рекламе, которая размещена на вашем ресурсе, она должна быть не слишком навязчивой и не мешать посетителям, как это делают всплывающие окна и тизеры. Ведь если вас пессимизируют, то могут и обнулить ваш ТИЦ.

alexandrshikhov.ru

Основные фильтры Google и Яндекс

ТОП самых опасных фильтров поисковых систем

Каждый веб-мастер и оптимизатор хотя бы в общих чертах должны представлять, какие у поисковиков существуют фильтры и в каких случаях они применяются к сайтам.

Итак, вот основные санкции поисковых систем, применяемые к «провинившимся»:

А теперь давайте более подробно рассмотрим существующие фильтры по принципу их принадлежности к двум самым популярным поисковикам.

Самые важные фильтры поисковой системы Google

1. «Панда». Применяется к веб-ресурсам за плохую внутреннюю оптимизацию:

 

 2. «Пингвин». Санкции поисковых систем накладывается за нечестное наращивание ссылочной массы:

3. «Колибри». Этот фильтр поисковой системы Google на самом деле не совсем фильтр – это алгоритм распознавания скрытого смысла введенных в поисковую строку запросов. Его целью является формирование более качественной выдачи. 

Таким образом, если Вы зацикливаетесь на оптимизации страниц под ключевые запросы и при этом забываете о смысловой нагрузке, Ваш сайт будет пессимизирован (понижен в выдаче).

4. «Песочница». Усложняет продвижение нового сайта, не допуская его к попаданию в выдачу (в частности, по ВЧ запросам) из-за малого возраста и низкого уровня доверия.  «Барахтаться» в «Песочнице» можно от 3 месяцев до 1–2 лет. При этом по НЧ запросам молодой сайт вполне может отображаться в ТОПе результатов выдачи.

Указанные фильтры поисковой системы Google доставляют больше всего проблем в плане исчезновения страниц с первых страниц поисковых результатов, сложностей обхода и длительности их применения. Существует достаточно много других, более узкоспециализированных и менее «жестоких» (Bombing, Bowling, «Дополнительные результаты» и т. д. ).

Основные фильтры поисковой системы Яндекс

  1. АГС – самый известный фильтр, основной целью существования которого является борьба с веб-ресурсами, созданными для заработка на искусственном размещении на них ссылок на продвигаемые сайты. Другими словами, он накладывается на сайты-сателлиты, которые засоряют сеть поисковым спамом. 

    В результате санкции поисковой системы почти полностью отправляют веб-ресурс под бан. В выдаче может оставаться от 1 до 15 его страниц.

    По алгоритмам оценки сайтов (до 100 параметров – отсутствие качественного контента, мало трафика, много исходящих ссылок, плохое юзабилити и т. п.) похож на «Панду» от Google.  

  2. «Ты последний» – фильтр поисковой системы Яндекс, который отбрасывает на «тысячные» позиции веб-ресурсы, пойманные на копировании чужого контента. 

     

  3. «Ты спамный». Накладывает санкции поисковой системы в виде понижения позиций по определенным запросам, по которым была замечена переоптимизация – слишком большая частота использования ключевых слов.  
  4. «Новый домен». Аналог «Песочницы» от Google. Также усложняет продвижение молодых сайтов, не допуская их в результаты поиска по высококонкурентным запросам. Представители Яндекс отрицают существование этого фильтра, но экспериментальные исследования показали обратное.

Именно эти фильтры поисковой системы Яндекс чаще всего становятся причинами потерь снижения позиций при ранжировании поисковой выдачи. Другие, менее известные (аффилирование, непот-фильтр, Links Text и т. д.), имеют гораздо меньшее влияние и срок применения санкций поисковых систем.

Как не «попасться»

Избежать попадания под фильтры поисковых систем чаще всего можно, если не применять жестких методов черного SEO-продвижения. Другими словами, нужно «хорошо себя вести» и не нарушать установленные правила. Подробнее об этом читайте в статье «Как не попасть под фильтр Google и Яндекс».

Есть опыт попадания под санкции поисковых систем? Если несложно, поделитесь им в блоке комментариев!

 

seo-akademiya.com


Prostoy-Site | Все права защищены © 2018 | Карта сайта