Полный список факторов ранжирования Гугла — часть 1. Поведенческие факторы ранжирования google


Полный список факторов ранжирования Гугла — часть 1

Факторы, связанные с доменами

  1. Возраст домена

Различие между доменом возрастом 6 месяцев и доменом возрастом в год на самом деле не такое уж большое. Иными словами, Гугл использует возраст домена, но нельзя сказать, что влияние на ранжирование велико.

  1. Вхождение ключевых запросов в домен

Не даёт прироста в позициях как когда-то, но наличие ключевого слова в домене всё ещё является признаком релевантности. В конце концов, ключевое слово, входящее в домен, до сих пор подсвечивается в выдаче.

  1. Ключевое слово в качестве первого слова в имени домена

Домен, начинающийся с целевого ключевого слова имеет преимущество над сайтами, у которых такого слова в домене нет или у которых слово стоит в середине или конце доменного имени.

  1. Срок, на который куплен домен

В одном из патентов Гугла сказано: Добропорядочные домены всегда оплачиваются на несколько лет вперёд, в то время как домены, используемые для дорвеев, редко когда используются дольше года. Следовательно, дата истечения срока регистрации домена может быть использована в качестве фактора, определяющего добропорядочность намерений владельцев домена.

  1. Ключевые слова в поддоменах

Аналитики в своих исследованиях пришли к выводу, что вхождение ключевого слова в поддомен может положительно влиять на выдачу.

  1. История домена

Домен, у которого менялись владельцы (по информации из whois) или наличие перерывов в его регистрации может стать основанием для Гугла обнулить историю домена, перестав учитывать обратные ссылки на него.

  1. Точное вхождение в домен

Точное вхождение ключа в домен может дать преимущество, только если у вас качественный сайт. Если же сайт некачественный, то ждите санкций от Гугла.

  1. Открытая и закрытая информация в whois

Закрытая информация в whois может свидетельствовать о том, что вам есть что скрывать. Сам по себе этот фактор ничего не решает, но если накопится достаточно много подозрительных сигналов, то …

  1. Штрафные санкции в отношении владельца домена

Если Гугл идентифицирует владельца домена как спамера, то вполне резонно, что другие его сайты будут под пристальным вниманием.

  1. Национальные доменные зоны

Наличие национальной доменной зоны поможет продвинуться в конкретном регионе, но существенно осложнит работу в глобальной выдаче.

Как делать сайты для разных регионов, написано в нашей статье «Исчерпывающий гайд по созданию дружественных к SEO ссылок»

Факторы, связанные со страницами

  1. Ключевое слово в тайтле

Тайтл – это второй по важности элемент контента страницы (помимо самого содержимого страницы) и, следовательно, посылает очень сильные сигналы поисковикам.

  1. Тайтл начинается с ключевого слова

Согласно исследованиям, тайтл, содержащий ключевое слово в начале, влияет на ранжирование лучше чем тайтл, у которого ключевик находится ближе к концу (рис. 1):

  1. Ключ в тэге description

Ещё один сигнал о релевантности. Не особо сильный в текущих реалиях. Но всё ещё имеет место быть.

  1. Ключевое слово, появляющееся в тэге h2

Тэг h2 это второй тайтл, свидетельствующий о релевантности. Взгляните на исследование о корреляции положения ключа на странице с позицией страницы в выдачи (рис. 2):

  1. Частота появления ключевого слова

Ключевое слово, появляющееся в тексте чаще других, так же свидетельствует о релевантности.

  1. Длина контента

Контент с бОльшим числом слов (и более полно раскрывающий предмет) предпочтительнее коротких поверхностных статей. Есть явная корреляция между длиной контента и позицией в выдаче (рис. 3):

  1. Плотность ключей

Хотя сейчас это и не такой важный фактор как некогда. Однако плотность ключевых слов, по прежнему является одним из признаков, по которым Гугл определяет тему страницы. Но опасайтесь переспама.

  1. Латентное семантическое индексирование

LSI помогает поисковикам извлекать смыслы из слов со множеством значений (компания Эппл и название фрукта). Наличие/отсутствие LSI также возможно является сигналом качества контента.

  1. LSI в тайтле и description

Как и в контенте страницы, LSI в мета-тэгах, также возможно помогает Гуглу работать с синонимами. Может также являться признаком релевантности.

  1. Скорость загрузки страницы на основе данных из HTML

И Гугл и Бинг используют скорость загрузки страницы в качестве ранжирующего фактора. Поисковики могут оценить скорость загрузки достаточно точно, основываясь на коде и размерах файлов.

  1. Дублирующийся контент

Идентичный контент на одном и том же сайте (даже слегка модифицированный) может негативно влиять на позицию в выдаче.

  1. Использование rel=canonical

Если использовать должным образом, то эта мера поможет скрыть от Гугла дубли страниц.

Как делать сайты для разных регионов, написано в нашей статье «Исчерпывающий гайд по созданию дружественных к SEO ссылок»

  1. Скорость загрузки страницы на основе данных Хрома

Гугл может так же использовать данные пользователей Хрома для более точной оценки скорости загрузки страницы, на которую влияют производительность сервера, использование CDN и других не связанных с HTML сигналов и скорости загрузки страницы.

  1. Оптимизация изображений

Изображения, размещённые на странице, сигнализируют поисковикам о релевантности своими именами файлов, значениями alt, title, longdesc и подписями.

  1. Частота обновлений контента

После апдейта поискового алгоритма Coffeine Гугл стал отдавать предпочтение недавно обновлённому контенту, особенно для запросов чувствительных ко времени. Чтобы подчеркнуть важность этого фактора, Гугл начал показывать для некоторых страниц дату последнего обновления (рис. 4).

  1. Объём обновления контента

Объёмы изменений в контенте так же влияют проставление даты последнего обновления контента. Добавление или удаление целых абзацев – это более существенное изменение, нежели изменение порядка нескольких слов.

  1. История обновлений

Как часто обновлялась страница? Ежедневно? Раз в неделю? Каждые пять лет? Частота обновлений страницы так же влияет на проставление даты последнего обновления.

  1. Первое вхождение ключевика

Вхождение ключевого запроса в первые 100 слов контента по-видимому является признаком релевантности.

  1. Ключевые слова в тэгах h3, h4

Вхождение ключевого запроса в эти тэги может быть хоть и слабым, но всё таки признаком релевантности.

  1. Порядок слов в запросе

Точное вхождение поискового запроса в текст страницы, в общем случае даёт лучший результат, чем та же самая фраза, но с другим порядком слов в ней. Например, запрос «яблочные пироги». Страница, оптимизированная по нему, будет находиться выше в выдаче, чем страница, оптимизированная под запрос «пироги яблочные».

  1. Качество исходящих ссылок

Многие СЕОшники считают, что простановка ссылок на авторитетные сайты, влияет на траст сайта-донора.

  1. Тематика исходящих ссылок

Аналитики считают, что поисковые системы могут использовать контент страницы, на которую вы ссылаетесь, как признак релевантности. Например, если у вас есть страница про машины и на ней размещена ссылка, ведущая на страницу про фильмы, то Гугл может решить, что ваша страница посвящена не машинам, а мультфильму «Тачки».

  1. Грамматика и написание

Хорошая грамматика и написание признак качества контента, хотя в 2011 году во время исследований, были получены противоречивые данные о том важно это или нет.

  1. Неоригинальный контент

Контент на вашем сайте оригинальный? Если он рерайтнут или скопирован с проиндексированной страницы другого сайта, то его не оценят так же высоко как исходный контент, или страница вообще попадёт в дополнительный индекс.

  1. Полезный дополнительный контент

Такой вид контента свидетельствует о качестве страницы. Например, это могут быть конвертеры валют, калькуляторы процентов по кредиту, интерактивные рецепты и т.д.

  1. Количество исходящих ссылок

Слишком большое количество dofollow исходящих ссылок может привести к утеканию Page Rank’а и ухудшить положение страницы в выдаче.

  1. Мультимедиа

Изображения, видео и другие мультимедийные элементы являются признаками качественного контента.

  1. Количество внутренних ссылок

Количество таких ссылок, ссылающихся на страницу, свидетельствует о важности этой страницы по сравнению с другими.

  1. Качество внутренних ссылок

Внутренние ссылки с авторитетных страниц дают больше эффекта нежели ссылки со страниц с низким PR или вообще с нулевым.

  1. Нерабочие ссылки

Большое количество неработающих ссылок, ведущих на страницу, может свидетельствовать о запущенно или брошенном сайте.

  1. Сложность материала

Нет сомнений, что Гугл оценивает материал страниц по его сложности. Фактически Гугл присваивает страницам одну из этих категорий (рис. 5):

Но то, как Гугл использует эту информацию, вопрос до сих пор дискуссионный. Некоторые говорят, что страницы, рассчитанные на базовый уровень читающих, оцениваются выше, потому что адресованы массам. Но другие СЕОшники считают, что уровень подобных статей это уровень контента с бирж копирайтинга.

  1. Партнёрские ссылки

Партнёрские ссылки может сами по себе не повредят вашему ранжированию. Но если их слишком много, то алгоритмы Гугла могут обратить внимание на другие факторы, позволяющие понять не является ли ваш сайт дорвеем.

  1. Ошибки HTML / валидации W3C

Большое количество HTMLных ошибок может быть признаком низкокачественного сайта. Хоть это и спорно, но многие СЕОшники считают прохождение валидаций W3C слабым признаком качества сайта.

  1. Траст сайта

При прочих равных, страницы на трастовых сайтах будут в выдаче выше чем страницы с менее трастовых сайтов.

  1. PR страницы

Корреляция не 100%, но в общем страницы с более высоким PR находятся в выдаче выше нежели страницы с более низким PR.

  1. Длина URLа

Результаты исследования показывают, что страницы с более короткими URLами находятся выше в выдаче.

  1. Путь в URLе

Близость страницы к домашней странице, может дать небольшой прирост траста.

  1. Влияние редакторов на выдачу

Хоть это никогда и не подтверждалось, но Гугл запатентовал систему, которая позволяет редакторам влиять на поисковую выдачу.

  1. Категория страницы

Категория, к которой относится страница, похоже, является признаком релевантности. Страница, принадлежащая релевантной категории оценивается выше, нежели страницы из нерелевантных категорий или менее релевантных категорий.

  1. Тэги в WordPress

Связывание страниц сайтов на ВордПрессе тэгами, это хоть и очень специфичный, но всё таки признак релевантности контента.

  1. Ключевое слово в URLе

Очевидно, ещё один признак релевантности.

  1. Строка URLа

Категории в URLе парсятся Гуглом, и могут быть источником семантической информации о чём же на самом деле страница (рис. 6).

  1. Указание источников

Указание источников цитат и заимствований, так же как это делается в исследовательских работах, может быть признаком качества страницы.

  1. Списки

Нумерованные и ненумерованные списки структурируют ваш контент для посетителей, делая его более читабельным. Гугл, вероятно, согласен с этим, и поэтому может отдавать предпочтение контенту со списками.

  1. Приоритет страниц в sitemap

Приоритет страниц, заданный в sitemap.xml, может влиять на ранжирование.

  1. Слишком много исходящих ссылок

На некоторых страницах может содержаться очень-очень много исходящих ссылок, которые отвлекают от основного контента.

  1. Количество ключевиков, по которым ранжируется страница

Если страница хорошо ранжируется и по другим ключевикам, то это может стать признаком качества контента.

  1. Возраст страницы

Хотя Гугл предпочитает свежий контент, однако, старые страницы, которые регулярно обновляются, могут показываться на более высоких позициях нежели новые страницы.

  1. Удобная структура страницы

Структура наиболее качественных страниц такова, что главный контент виден сразу.

  1. Припаркованные домены

Апдейт Гугла за 2011 год понизил видимость припаркованных доменов.

  1. Полезный контент

По мнению СЕОшников Гугл может различать качественный контент и полезный.

На этом мы заканчиваем первую часть статьи про факторы ранжирования Гугла. Чтобы не пропустить остальные части, подписывайтесь на наш канал.

Как вы можете использовать эту информацию применительно к своим сайтам?

Специально для вас создан пошаговый чеклист, с помощью которого вы можете быстро внедрить наиболее важные техники из этой статьи.

Чеклист содержит 10 наиболее важных ранжирующих факторов и суперэффективных стратегий, которые позволят вам подняться в выдаче и получить больше трафика.

Кликните на эту ссылку, чтобы получить чеклист

Оригинал статьи — https://backlinko.com/google-ranking-factors

spark.ru

Поведенческие факторы ранжирования

Пока компьютер не начнет думать как человек, он не сможет отличить плохой сайт от хорошего… так, как это сделал бы человек. На самом деле поисковые системы имеют в своих арсеналах методики сбора и анализа данных, с помощью которых кремниевые мозги легко затыкают за пояс знатоков из мяса.

Сразу оговоримся — под «хорошим» сайтом мы имеем в виду «достойный занять место в поисковой выдаче по конкретному ключевому запросу», не будем погружаться в дебри эстетики сайтостроения.

Итак, если не вдаваться в детали, сейчас в поисковых системах комплексно применяется три подхода: ранжирование страниц по авторитетности (пример — принесший Google популярность алгоритм PageRank), поведенческие факторы (анализ действий реальных посетителей реальных сайтов) и машинное обучение (пример — «Матрикснет» Яндекса, который обучает алгоритмы оценками выборок специалистами-асессорами, ну и по сути увязывает и уравновешивает первые два подхода).

Ранжирование по авторитетности на ранних этапах развития интернета работало очень хорошо, но в дальнейшем «слишком математическая» природа такого подхода позволила оптимизаторам применять фокусы, использующие найденные в ходе экспериментов слабости системы. Качество выдачи страдало, поисковики вводили поправки, дополнительные формулы и коэффициенты, фильтры и санкции, но по-настоящему крупный прорыв был сделан, когда появилась возможность ранжировать сайты на основе предпочтений их реальных живых посетителей. Анализ поведенческих факторов объективнее любых личных пристрастий (как экспертных, так и профанных), поскольку работает с предпочтениями большой выборки целевой аудитории. Как поисковики собирают данные

1 Системы статистики (Google Analytics и Яндекс.Метрика). Практически все сайтовладельцы хотят владеть информацией о посещаемости и всех действиях аудитории. Самые лучшие, да еще и бесплатные инструменты для этого предоставляют поисковики, но взамен они получают огромные объемы данных.

2 Браузеры. Internet Explorer работает на Bing, Chrome — на Google, да и у Яндекса есть свой продукт в этой нише. Хотя Chrome, например, глубоко-глубоко в настройках, куда заберутся только хаброголовые, предоставляет возможность снять галочку в чекбоксе «Автоматически отправлять в Google статистику использования и отчеты о сбоях», мы не можем поручиться, что это лишает корпорацию добра доступа к нужным ей данным. В целом же поток данных от фирменных браузеров довольно существенен, он позволяет дополнительно охватить сегмент сайтов без систем статистики (или, что чаще, со системами статистики конкурентов).

3 Надстройки для браузеров. Оценить потребность поисковиков в данных о посещаемости можно по агрессивному продвижению Яндекс.Бара. Превращая любой браузер в «фирменный», надстройка усердно засылает статистику посещаемости в родной центр обработки данных.

С вышеперечисленными продуктами поисковики получают практически полную информацию о поведении аудитории каждого проиндексированного сайта. Следующий логичный шаг — показывать выше те сайты, которые при прочих равных вызывают более положительную реакцию у посетителей. Здесь, безусловно, есть свои тонкости: в каких-то тематиках время просмотра страницы будет основным фактором положительной оценки, в других (например, если юзеру для выполнения требуемого действия нужно бросить на страницу один взгляд) — не играет особой роли. Где-то очень важна глубина просмотра, но если сайт состоит из одной страницы, то иногда отказывать ему в высоких позициях не стоит. Здесь вступает в игру интерпретация и сегментирование данных, а также машинное обучение (если асессоры постоянно дают высокие оценки качественным одностраничным промо-сайтам, поисковик научится исключать глубину просмотра из списка важных поведенческих факторов для похожих ресурсов).

Основные поведенческие факторы ранжирования1 Показатель отказов (bounce rate) — процент посетителей, покинувших сайт после просмотра страницы входа. Для сайтов, требующих несколько переходов на другие страницы — а таких большинство — является очень хорошим критерием качества и соответствия тематике. Посетитель уходит с сайта либо потому, что нашел нужное и сделал то, что собирался (и что требовалось владельцу сайта), или же потому что сайт не понравился или нерелевантен поисковому запросу. Старайтесь снижать процент отказов — увеличивайте релевантность, улучшайте дизайн и UX, делайте посадочные страницы более понятными, привлекательными и так далее. Разумеется, стопроцентного «усвоения» аудитории не будет никогда, но стремиться к этому надо. И не в последнюю очередь не из-за учета поведенческих факторов поисковиками, а из-за конверсии — показатель отказов прямо связан со способностью сайта превращать «посетителей» в «покупателей».

2 Время, проведенное на сайте. Хороший критерий качества в подавляющем большинстве случаев. Если высокий показатель достигается не за счет непонятности контента и запутанности навигации. Увеличить время просмотра можно с использованием простейшей житейской логики: дайте посетителям то, что им интересно, и они уделят свое время изучению этих материалов. Это могут быть статьи, фотогалереи, видеоролики, какие-то сервисы типа калькуляторов ипотеки (в тематике сайта, разумеется) и т.п. Все приемы для вовлечения не должны вредить конверсии, так что не стоит механически добавлять на страницу все подряд.

3 Глубина просмотра. Важный критерий для контентных проектов. Увеличить глубину можно за счет продуманной навигации и перекрестных ссылок, ну и, безусловно, интересного контента. Многие сайты пытаются увеличить глубину за счет разбивки больших статей на несколько частей, расположенных на разных страницах, однако эта практика оправдана только в случае высокой мотивации посетителей читать статью целиком (это хорошо работает для обзоров компьютерных компонентов, но за продолжением «гуманитарной» статьи о том, как нам реорганизовать Рабкрин, многие переходить откажутся).

4 Возвращение к повторному поиску. Если посетитель возвращается от сайта обратно к поиску, значит он не нашел нужного. Этот параметр можно контролировать только через повышение релевантности посадочных страниц запросам, а также поддержание конкурентоспособного уровня цен на товары и услуги.

5 Возвращение на сайт не из поиска. Если посетитель добавил сайт в закладки или запомнил адрес, это станет существенным плюсом в пользу ресурса. Тем не менее, навязчиво предлагать добавить сайт в закладки не стоит, это необходимо делать тонко и со вкусом.

6 Характер перемещения курсора мыши и паттерн движения по сайту. Системы статистики собирают данные не только о том, куда кликал посетитель, но и как он двигал курсором. Это необходимо для построения «тепловых карт внимания», а также отсева попыток накрутить поведенческие факторы скриптами. Паттерны живых посетителей довольно сложно сэмулировать, поэтому, кстати, многие сайты, пытавшиеся накручивать пользовательские факторы в первые месяцы их внедрения, быстро улетели вниз в выдаче или были забанены — поисковики заметили, что курсором управляют не живые люди, а программы. Анализ же тепловой карты и записи просмотра сессий позволят при достаточном количестве времени и дотошности выявить и устранить препятствия на конверсионных маршрутах.

7 Кликабельность сниппета (CTR). Чем больше кликают на ваш сниппет (короткое описание со ссылкой в поисковой выдаче), тем лучше к вам относится поисковик. Это логично: если сниппет релевантен запросу и привлекает внимание пользователей, то и сайт с большой долей вероятности качественно ответит на запрос. Существуют способы контролировать сниппет, и этому стоит уделить внимание — быстрые ссылки, правильный тайтл, хороший текст помогут увеличить и посещаемость, и позиции.

8 Кнопки социальных сетей. Если на установленные кнопки (лучше всего ставить не скрипты типа AddThis, а нативные кнопки самих соцсетей) кликают, это не только увеличивает количество подписчиков ваших страниц в этих соцсетях, но и является важным сигналом качества сайта для поисковых систем. Установите кнопки как можно раньше — каждый подписчик будет существенным плюсом.

ВыводыПоисковые системы достаточно объективно и качественно анализируют данные о поведенческих факторах ранжирования. Не пытайтесь манипулировать ими напрямую (с помощью скриптов, покупки нецелевого трафика и т.п.): это приведет к санкциям, а пользы не принесет. Гораздо эффективнее и важнее реально увеличивать качество сайта, его привлекательность и конверсию. Тогда и пользователи будут вести себя так, как вам нужно, а все вышеперечисленные показатели и, соответственно, позиции сайта будут расти.

Автор: SeoPult

Источник

www.pvsm.ru

Поведенческие факторы ранжирования сайта в Яндексе и Google

После того, как в конце 2013 года Яндекс заявил об отмене ссылочного ранжирования для ряда коммерческих тематик, еще сильнее возросла роль поведенческих факторов в комплексном продвижении сайта. Это было бы только на пользу качеству поиска, если бы все вебмастера и seo-оптимизаторы стали действительно улучшать свои сайты, делая их удобнее для пользователей. В действительности же многие поддались соблазну обмануть поисковик посредством накрутки ПФ.

Наличие сервисов (Serpclick, Мовебо, Вебэффектор и др.), предлагающих автоматизировать все поведенческие процессы, на деле не помогали, а только усугубляли картину. Раскрутка поведенческими факторами превратилась в целую индустрию по выкачке денег с владельцев сайтов, по аналогии с покупкой ссылок. 

Яндекс вводит фильтр за накрутку ПФ, который понижает позиции сайтов за искусственные клики в выдаче с помощью мотивированного трафика или эмуляций действий пользователей на срок до 6 месяцев. Сайт сохраняет позиции только по витальным запросам или по конкретному URL.

В отличие от Яндекса, Google публично не наказывает за накрутку ПФ, но и не придает особого значения этим факторам в своем алгоритме ранжирования из-за простоты манипуляций с ними. Поэтому крутить поведенческие под Гугл не имеет смысла.

В Google все еще работает продвижение внешними ссылками, а вот Яндекс хочет полностью нивелировать влияние ссылок на результаты поиска. Выход нового алгоритма Минусинск тому подтверждение. Поэтому, продвигая сайты в России, где русский поисковик пользуется большей популярностью, приходится, наряду с внутренней оптимизацией, не забывать о ПФ. 

Осуществлять продвижение сайта поведенческими факторами надо естественными способами, постоянно работая над качеством своего ресурса, а не используя обманные технологии.

Чтобы улучшить ПФ на своем веб-сайте, надо для начала знать, что это такое и на какие поведенческие метрики стоит обращать особое внимание.

Что такое поведенческие факторы

Поведенческие факторы (ПФ) – это действия пользователя на странице поисковой выдачи и на сайте, говорящие поисковой системе об уровне соответствия этого сайта заданному поисковому запросу.

Первые попытки использовать ПФ в алгоритмах ранжирования предпринял не Яндекс, а корпорация Microsoft более 10 лет назад. Однако эти эксперименты не увенчались успехом из-за невозможности применения единой технологии к разным группам сайтов (тематика, регион, тип контента). Ведь, если человек надолго завис на информационном ресурсе и просмотрел много страниц, то это говорит о том, что ему там интересно. В то же время, такие же действия на сайте заказа такси могут говорить о том, что пользователь просто не может найти нужную информацию. В данном случае ему достаточно увидеть номер телефона на первой же странице, чтобы сразу закрыть ее и остаться полностью удовлетворенным.  

Российский поисковик, благодаря своей технологии машинного обучения MatrixNET и асессорским оценкам, продвинулся гораздо дальше. Яндекс научился сопоставлять поведенческие параметры для различных групп запросов на сайтах разных тематик. Например, он способен понять, для каких сайтов короткая сессия плюс, а для каких минус в ранжировании.

Источники для сбора информации о поведении пользователей:

  • поисковая выдача;
  • счетчики статистики;
  • свои браузеры или сборки браузеров;
  • надстройки, плагины и расширения к браузерам.

Основные поведенческие факторы ранжирования сайта

 

  1. CTR в SERP (кликабельность сниппета) – чем выше, тем лучше.
  2. Возврат в выдачу к повторному поиску – отрицательный фактор.
  3. Первый и последний клик в выдаче – дают преимущество над остальными сайтами из ТОПа.
  4. Показатель отказов (bounce rate) – чем меньше, тем лучше. Яндекс не считает посещение отказом, если человек пробыл на странице более 15 секунд. Для Google отказ – это просмотр только одной страницы, после чего пользователь покидает сайт. В этом заключается основное противоречие, так как пользователь мог найти все, что искал уже на первой странице, как в примере с такси выше.
  5. Время, проведенное на сайте. Этот показатель, как и в пункте выше может быть различным для разных типов сайтов. Длительность сессии может говорить, как о качестве ресурса, так и о запутанной структуре, когда сложно что-то быстро найти.  
  6. Глубина просмотра (количество просмотренных страниц) - важный показатель для контентных проектов.
  7. Характер перемещения курсора мыши и движение по сайту. Используется поисковиком для выявления попыток накрутки поведенческих факторов.
  8. Возвраты на сайт. Посещение сайта по прямому адресу или из закладок говорит об интересе к нему со стороны пользователей и положительно влияет на его ранжирование
  9. Уход с сайта по внешней ссылке. Считаю, что лучше, когда пользователь уходит с сайта, перейдя по тематической ссылке, чем просто закроет вкладку браузера. Как на самом деле поисковики на это реагируют, сказать сложно.
  10. Клики по социальным кнопкам. Если пользователи делятся контентом, кликая на кнопки социальных сетей, установленные на сайте, то это является сигналом для поисковиков о качестве сайта.

Выводы

Поисковики знают все о поведении пользователей на вашем сайте и используют эти данные в алгоритмах ранжирования. Попытки манипулировать поведенческими факторами с помощью скриптов и сервисов скорее приведут к санкциям, чем принесут пользу. Гораздо эффективнее воздействовать на ПФ путем улучшения качества сайта и его удобства для посетителей. Тогда они будут вести себя так, как надо, естественным путем улучшая все вышеперечисленные показатели. Соответственно, позиции веб-ресурса в поисковой выдаче будут выше, а вместе с ними будут расти посещаемость сайта и конверсии.

prodvizhenie-pf.my1.ru

Основные Факторы Ранжирования в Google (2018) – Анализ Исследования SEMRush

Факторы Ранжирования Сайта в Google по Версии SEMRush (Исследование 2017 Года)

А так же мое скромное мнение о них.

Недавно, SEMRush, популярный инструмент для интернет-маркетинга опубликовал результаты проделанного ими исследования основных факторов ранжирования в Google. Они проанализировали топ 100 позиций по более чем 600.000 ключевым словам, и пришли к определенным выводам (я их опишу ниже).

В этой статье я озвучу свое мнение по поводу результатов исследования, а также сделаю выводы о том, что собственно нужно делать, чтоб в 2018 году быть в топе по популярным в вашей нише ключевым словам.

Какие Основные Факторы Ранжирования в Гугл Согласно SEMRush?

SEMRush пришли к следующим выводам. Факторы приведены в порядке важности.

  1. Прямой трафик – самый важный фактор ранжирования. Прямой трафик – это те посетители, которые вбивают адрес вашего сайта в адресную строку браузера, перешли через закладку в браузере, через ссылку из мессенджера и т.п.. Не путайте с поиском вашего сайта в поисковике и переход из поисковой выдачи.
  2. Поведенческие факторы, а именно: продолжительность пребывания на сайте, процент отказов (посещения только одной страницы сайта за сессию) и количество просмотренных страниц за сессию.
  3. Обратные ссылки. Ссылки с других сайтов на ваш сайт.
  4. Якорный текст (кликабельная часть текста) не так важен в ранжировании
  5. Факты ранжирования, которые касаются обратных ссылок, взаимосвязаны и, для получения результата нужно уделять внимание им всем.
  6. По брендовым запросам боле релевантные страницы ранжируются лучше, чем популярные сайты, но с менее релевантным содержанием
  7. HTTPS (аббр. от англ. HyperText Transfer Protocol Secure) домены, домены с поддержкой шифрования данных, обычно ранжируются выше.
  8. Наличие ключевых слов в Title страницы, мета данных и тексте страницы менее важны, чем другие факторы, описанные выше.

Что Я Думаю о Результатах Исследования и Что, Собственно, Нужно Делать Дальше?

В этой части статьи я опишу свое отношение к каждому из факторов в списке, объясню, почему я так думаю и, что самое важное — как именно применить эту информацию для получения результата.

Конечно, у меня нет такого объема данных, как у SEMRush, но зато у меня есть многолетний опыт, который не столько подтвердит или опровергнет результаты исследования, сколько даст ответ на более важный вопрос: что делать для того, чтоб не только быть в топе, а еще и эффективно продвигать свои товары или услуги онлайн.

  1. Прямой Трафик

Я бы поставил этот фактор в топ списка важных факторов (или, скорее, признаков) успешного бизнеса, но в список факторов ранжирования сайтов в поиске – вряд ли. Объясню почему.

Представим себе ситуацию: вы только что запустили новый сайт и, естественно, хотите высоких позиций по ключевым словам, для достижения которых вам нужны «прямые» переходы на сайт. Вопрос: каким таким магическим образом люди узнают о вашем новом сайте, чтоб начать его посещать?

Прямой трафик я бы так же отнес к поведенческим факторам, которые описаны в п. 2, потому что в реальном мире прямой трафик получают только те сайты, о которых люди уже узнали из других источников. Все раскрученные сайты/бренды получают очень много как прямого трафика, так и трафика по словам, которые четко говорят о том, что искали именно этот, конкретный сайт.

Что Делать?

Ответ одновременно простой и сложный. Что точно не нужно делать – это не нужно рассылать ссылки на свой сайт всем, кого вы знаете, во все доступные мессенджеры, и точно не нужно слать письма с просьбой посетить ваш сайт, прописав его адрес в браузере.

Как я уже писал выше, прямой трафик – это показатель популярности. Чем его больше, тем лучше. Поэтому, что может сделать владелец бизнеса для получения такого трафика – это работать над популярностью, узнаваемостью бренда и над лояльностью к нему. Для этого хороши все каналы, в том числе и те, которые находятся за пределами интернета.

Приведу небольшой список ниже. Напомню, что в данном случае, конечной целью должна быть узнаваемость и популярность бренда, прямой трафик – это уже следствие.

 

  1. Поведенческие Факторы

Официально Гугл заявляет, что поведенческие факторы, например, процент отказов (bounce rate) – не влияют на позиции сайта в поиске или на его индексацию. Ниже приведена цитата Джона Мюллера, ведущего аналитика и специалиста по работе с вебмастерами по вопросам качества поиска.

По моему субъективному мнению, Google вполне вероятно может использовать поведенческие факторы (хоть они и не критически важны именно для ранжирования). Как именно? Например, может быть некая общая оценка поведенческих факторов по сайту в целом, но так же может быть и оценка конкретной страницы. Во втором случае, страница должна уже получать трафик, в том числе и из поиска, т.е. уже должна уже быть в топе.

Я думаю, что Гугл может корректировать позиции страниц, основываясь в том числе (помимо всех прочих факторов) и на поведенческих факторах конкретной страницы. Например, в топе по одному и тому же слову есть несколько страниц, из которых некоторые выделяются лучшими показателями, почему бы не учесть это в корректировке позиций и не поставить выше ту, которая лучше резонирует с пользователем?

N.B.: Обратите внимание, что нормальный процент отказов для разных типов страниц разный. К примеру, если у новостного сайта процент отказов 65% — это может быть вполне нормально, так как люди редко переходят по ссылкам, чтобы читать другие новости. Тоже касается и блогов: человек искал информацию, он ее нашел у вас в статье, остался довольным и закрыл страницу. Другое дело интернет магазины: если 65% людей не идет на вторую страницу, когда у вас огромный выбор товаров, то это уже повод задуматься о том все ли в порядке у вас с «юзабилити» сайта.

Что делать?

Не ломать себе голову над тем, важны ли поведенческие факторы или нет для ранжирования, а сконцентрироваться на продажах и конверсии. Если специфика вашего бизнеса или предложения не требует от посетителя много переходов по ссылкам (например, вы сантехник, и вы анализируете страницу, где рекламируете ремонт раковин).

Человек искал того, кто бы мог починить раковину, он зашел к вам из поиска на страницу, где именно это вы и рекламируете. Нужно ли, чтоб он кликал еще по другим страницам, если вы хотите, чтоб вам позвонили, а номер телефона виден на каждой странице? Нет, вам абсолютно это без надобности. Просто убедитесь, что страница хорошо описывает ваши услуги и телефон размещен на видном месте.

Есть одно простое правило касаемо конверсии – чем больше препятствий на пути к заветному действию, тем ниже будет уровень конверсии. Не усложняйте жизнь вашим потенциальным клиентам, если только вы не раздаете бесплатные iPhone’ы. 🙂

3 и 4. Обратные Ссылки и Якорный Текст

Я объединю эти два пункта в один, так как они очень тесно связаны. Более того, я считаю, и со мной согласятся, наверное, все SEO специалисты, что обратные ссылки сегодня, как и много лет тому назад, являются основным фактором ранжирования в Google. Так будет и в 2018 году, и так будет в обозримом будущем до тех пор, пока не придумают новую весомую суть связи между сайтами в Интернете.

Я бы поставил обратные (dofollow, которые передают вес, так называемый Link Juice) ссылки на первое место в списке, но не стоит забывать, что одних ссылок недостаточно, так как существуют факторы, которые негативно влияют на позиции, например, фильтры, неуникальные тексты, технические проблемы или банальное отсутствие релевантной страницы на сайте.

N.B.: в исследовании сказано, что якорный текст ссылки не столько важен, как количество ссылок. Но не стоит забывать, что SEMRush анализировали позиции популярных, я бы даже сказал «элитных» сайтов в том числе. У таких сайтов очень много по-настоящему «органических» ссылок, ссылок, которые появились сами собой с форумов, блогов и т.п. Такие «органические» ссылки – это следствие популярности и авторитетности сайта. Сайтам с маленьким количеством ссылок все же стоит обратить внимание на использование ключевых слов в якорном тексте, но «получать» такие ссылки нужно правильно, иначе можно попасть под фильтр.

Что Делать?

Ответ простой – начинать «добывать» ссылки на сайт и как можно раньше. Даже если у вас небольшой бюджет, но вы можете его выделять регулярно, то это все равно стоит делать. Если бюджет достаточно гибкий, есть смысл проанализировать скорость прироста ссылок у конкурентов, которые в топе, ключевые слова, по которым они продвигаются, и продвигаемые страницы.

Анализ ссылочного профиля конкурентов может быть очень детальным; и это не только скорость прироста ссылок и страницы, но еще и типы ссылок, процент ссылок с ключевым словом в якорном тексте, качество ссылок, количество качественных и дорогих ссылок и т.д и т.п. Стоит отметить, что, какой бы глубокий анализ вы не сделали, его результаты не дают стопроцентную гарантию того, что, скопировав стратегию, вы так же будете занимать высокие позиции.

  1. Ранжирование Брендовых Запросов

Этот фактор не представляет особого интереса с точки зрения ранжирования сайта, который продает товары или услуги, потому что по брендовым запросам (например: «телевизоры розетка») сайт, не находящийся под фильтром, в большинстве случаев будет на 1 позиции. Проверьте, если по запросу «название услуги или товара» + «название вашей компании или сайта» вы не на первой странице (и при этом у вас есть соответствующая страница), то это повод для беспокойства.

Как Можно Использовать Эти Знания?

Знания о ранжировании брендовых запросов можно использовать для управления репутацией онлайн. Если, к примеру, о вашей компании публикуются статьи с негативной информацией, можно «выдавить» их из поиска, заменив их на те, информацию в которых вы контролируете.

Управление репутацией – это тема для отдельной и объемной статьи. В рамках этой же, хочу сказать, что управление репутацией очень важно, так как негативная информация распространяется быстрее, чем позитивная, что может плохо сказаться на продажах в будущем. Люди попросту скорее поделятся негативным опытом, чем позитивным. Большинство негативных отзывов гораздо длиннее, чем позитивные. Так устроена психология пользователя, и с этим нельзя не считаться.

  1. HTTPS Сайты

Что такое HTTPS? Если просто – то это протокол, который шифрует данные, посылаемые вашим браузером на сайт. Лично мое мнение такое, что HTTPS не столько защищает пользователя, сколько помогает Гуглу отслеживать взаимосвязь между сайтами, например, для выявления сеток сайтов.

Так влияет ли наличие HTTPS на позиции? Короткий ответ: скорее всего, да. В своей практике я переносил сайты на защищенный протокол и позиции росли, но параллельно велась так же работе по наращиванию обратных ссылок, поэтому сложно четко оценить эффект от переноса.

Что делать?

Я рекомендую переносить сайт на HTTPS по трем простым причинам

  1. Google Chrome планирует показывать (а, может, и уже показывает) оповещения о том, что сайт не защищен. Для непосвященного пользователя это может стать одним из факторов в выборе онлайн магазина или поставщика услуг.
  2. Все самые популярные ресурсы переходят на HTTPS: вы будете выглядеть хуже, если это будет иметь значение для пользователя.
  3. Улучшение позиций. Я бы не ждал драматических изменений после переноса, но, в совокупности с другими факторами, это будет, несомненно, плюсом.

 

  1. Ключевые Слова в Title, Meta Keywords, Description и Тексте Страницы

Седьмой пункт, хоть и вмещает в себя четыре элемента, но комментарии по ним будут достаточно короткими и однозначными.  Здесь хочу отметить, что эти факторы вполне логично заняли свое место внизу списка. Все это — элементы внутренней оптимизации. Факторы внешней оптимизации намного более важные, поскольку считается, что это те факторы, которые владелец сайта контролировать не может.

Ключевые слова в Title теге – да, страница может быть в топе, не имея ключевого слова в Title теге страницы. Эти позиции достигаются либо за счет повышения общего уровня доверия к сайту, либо за счет ссылок на эту страницу. Title тег все так же остается самым сильным элементом внутренней оптимизации, поэтому я рекомендую использовать самые важные ключевые слова там. Так же стоит позаботиться о том, чтобы он был привлекательным для пользователя.

Meta keywords – я вообще не понимаю, почему этот элемент присутствует в отчете. Этот элемент страницы уже давно никак не влияет на ранжирование страницы в поиске. Уверен, многие из моих коллег сильно удивятся, если будет доказано обратное.

Meta description – ситуация аналогичная с meta keywords. Само по себе мета описание страницы никак не влияет на позиции страницы. Единственное, в каком случае мета описание может помочь — это за счет того, что оно (мета описание) может повлиять на CTR (click-through rate, синоним – кликабельность, соотношение числа кликов к количеству показов) страницы в поисковой выдаче. Есть мнение, что CTR страницы – это тоже фактор ранжирования.

Ключевое слово в тексте страницы – конечно, страница может быть в топе по ключевой фразе, не имея ее точного соответствия в тексте страницы, но мне сложно представить ситуацию, в которой нельзя было бы иметь на текст «купить букет роз» на странице интернет магазине с букетами роз.

Что Делать?

Используйте ключевые слова в Title теге страницы и ее тексте, уделяйте много внимания тому, чтобы повысить уровень конверсии. Относитесь к странице как к рекламному объявлению, делайте ее красивой, продающей и полезной для пользователя. Используйте ключевые слова в мета описании, так как они подсвечиваются в выдаче. Это делает вашу страницу более заметной. На мета ключевые слова я не трачу свое время вообще.

Выводы

Результаты исследования SEMRush противоречивы, особенно, что касается прямого трафика и поведенческих факторов, которые, скорее всего, являются не причиной высоких позиций, а их следствием. В чистом остатке мы имеем тоже, что и за годы до этого. Оптимизированный, «здоровый» сайт и обратные ссылки – это основные факторы ранжирования в Google. Все остальное – важно больше с точки зрения того, насколько хорошо сайт способен выполнять свою функцию – продавать ваши товары или услуги.

alex-marketer.com


Prostoy-Site | Все права защищены © 2018 | Карта сайта