Google и Yandex – алгоритмы работы поисковиков (принципы, нюансы, новости 2018). Алгоритм ранжирования яндекс


что это и как работает?

Всем читателям блога привет, рада нашей новой встрече! Сразу представим ситуацию: вы проводите SEO-оптимизацию сайта или пишите продающие тексты, а может ваш сайт попал под фильтры Google и Yandex? Все это неразрывно связано с алгоритмами работы Google и Яндекс. Понять суть мышления поисковых машин – верный путь к тому, чтобы ваш сайт, статья перенеслись в ТОП-выдачи и избежали фильтрации поисковиков.

Поэтому сегодня предлагаю остановиться именно на этой актуальной теме и узнать:

  1. Что такое поисковые алгоритмы?
  2. Общие принципы работы поисковых машин.
  3. Алгоритмы работы Google: обзор последних апдейтов.
  4. Алгоритмы работы Yandex: обзор последних апдейтов.
  5. Различия в работе алгоритмов Google и Yandex.
  6. Советы: что нужно изменить на своем сайте в 2018 году?

Давайте приступать к изучению? Мне на подготовку статьи понадобилось 28 часов и 15 авторитетных источников, у вас задача намного проще – прочесть материал (8 мин), можно добавить его в закладки (1 сек) и пользоваться (неограниченное количество времени).

Что такое поисковые алгоритмы?

По традиции начинаем с теории, в конце, как водится, практические советы от Textum как оптимизировать свой сайт под реалии 2018 г. Но не будем забегать вперед, идем по порядку:

Поисковый алгоритм позволяет поисковикам в ответ на запрос пользователей выдавать релевантные (соответствующие) запросу результаты.

Представляете, какой был бы хаос в интернете, если бы данной системы просто не было? Вы пишите запрос купить юбку, а вам выдает портал с автодеталями.

Сегодня это кажется смешной и нереальной ситуацией. Работа поискового алгоритма строится на анализе множества факторов для оценки ценности веб-ресурсов и их содержимого для пользователей. Учитывая все это, роботы-поисковики ранжируют сайты в ТОП-выдачи и распределяют странички на 1,2,3….или последних местах.

Думаю, ни для кого не секрет, что алгоритмы работы поисковых систем, например Google или Yandex, поддаются изучению и это можно использовать в своих интересах, например, для поисковой SEO-оптимизации сайтов. Но тут все не так просто. Поисковые машины действуют в интересах пользователей, стремятся выдать на их запросы действительно ценные материала, а не сайты-пустышки с обилием ключей и 0% полезной информации. Для этого алгоритмы Google, Yandex регулярно обновляются.

Давайте сначала рассмотрим общие принципы работы поисковиков, а потом уже перейдем к алгоритмам 2-х наиболее популярных систем – Google и Yandex.

Общие принципы работы поисковых систем

Конечно же, каждый поисковик как отдельная марка авто имеет свои нюансы, например, в машинах это касается мощности двигателя или разности в ходовых качествах. Но есть и общие элементы, начиная от банального – 4 колеса, заканчивая общими принципами управления транспортом.

Поисковые системы интернета также имеют похожие принципы работы:

  1. Сбор данных. Как только появляется новый ресурс (о чем становится известно ботам с помощью внешних ссылок, добавления сайта в аддурилку и прочего) робот сразу же пожалует в гости на страницу. Он собирает информацию о текстовом и визуальном контенте.
  2. Индексация. Сайт не появится в поисковой выдаче, пока для страницы не будет составлен обратный (инвертированный) файл индекса. Он предназначен для того, чтобы по нему быстро производить поиск и состоит из списка слов из текста. После этого сайт можно будет найти по ключевым словам на его страницах.
  3. Поиск информации. После того как поступил запрос от пользователя, например, купить книгу, роботы находят все страницы, которые подходят под этот запрос. Документы, в которых ключи наиболее подходят под запросы, попадают в выдачу Google, Yandex и т.д.
  4. Ранжирование. Здесь уже начинается самое интересное. Борьба за место под солнцем, т.е. цель любой SEO-оптимизации сайта попасть на первую страницу выдачи. Здесь имеет значение множество факторов, основные из которых: вес страницы, авторитетность домена, соответствие текста запросам и экспертность материала.

Поисковые алгоритмы анализируют частоту использования и расположение в тексте ключевых запросов на отдельной странице сайта. Обращают внимание на тег title.

Что это и зачем нужно описано в статье: Мета-теги (title, description, keywords): как правильно прописать?

Т. е. если страница имеет такое название, значит и материал должен быть по этой теме. Также берется в расчет наличие ключей в начале страницы (название, h2), первом абзаце текста.

Кроме контента веб-страницы, оцениваются внешние факторы. Например, поведение пользователей. Если посетители не находятся длительное время на ресурсе, при переходе на него сразу же закрывают страничку, то боты расценивают портал как неинтересный для интернет-сообщества и задвигают его подальше от ТОП-выдачи.

От общих принципов работы пора переходить к более конкретной информации.

Алгоритмы работы Google: обзор последних апдейтов

Несмотря на милые названия (типа Панды или Пингвина) алгоритмы современной работы Google очень строги к сайтам. Нарушение или несоответствие требованиям поисковиков приводят минимум к понижению страницы в строке выдачи, максимум – попаданию под фильтр определенного алгоритма и исключение сайта из выдачи.

Но не пугайтесь заранее, просто давайте вооружимся знаниями о работе поисковых алгоритмов Google.

Панда Google

Был запущен почти 7 лет назад и с этого времени обновляется каждый месяц. Алгоритм Google под названием Panda создан для обнаружения и борьбы со страницами, на которых находится неуникальный, спамный, наполненный большим количеством ключей контент. Подобные веб-ресурсы существенно снижают свои позиции в рейтинге ранжирования Google.

Основная задача Панды – повышение качества сайта.

За что наказывает сайты Panda:

Последнее касается контента, созданного с помощью специальных программ. Такие страницы содержат несвязный текст, но с ключами для поиска.

Что нужно сделать, чтобы не попасть в немилость Панды:

  1. Проверить уникальность содержания сайта. Перед размещением статей на страничке логично определить уникальность материала (даже, если вы самостоятельно пишите его, исходя из личного опыта). Как это сделать читайте здесь: Как проверить уникальность текста: обзор лучших программ.
  2. Проверить сайт на наличие страниц-дублей. В первую очередь стоит обращать внимание на страницы с одинаковым тегом title и заголовком h2 – потенциальные кандидаты, в которых может быть дублирующая информация. Такие страницы нужно устранить либо закрыть их от роботов-поисковиков. Идеальный помощник в этом Robots.txt.
Полезная статья по теме: Создать Robots.txt – просто, как 2х2.

Оптимизаторы должны ориентироваться, в первую очередь, на удобство интерфейса сайта (в том числе его мобильной версии) для посетителей. Никаких замудренных переходов по категориям, «нет» обилию рекламы, главная ценность – качество, а не количество.

Самый последний апдейт Google Panda очень строг к недобросовестно выполненной оптимизации. Если сайт попал под фильтр Панды, остается только внедрять все недоработки и ждать пока апдейт завершится, а затем около года, пока запустится новое обновление.

Пингвин Google

Долгое время в ранжировании сайтов Google ориентировался на ссылочную массу. Алгоритм Penguin создали в 2012 году, чтобы выявлять веб-ресурсы с неестественной ссылочной массой. Например, оптимизаторы прибегают к услугам ссылочных бирж, где существует большая вероятность попасть не на авторитетный сайт-донор, а на сателлит.

Google не любит таких умельцев, с помощью алгоритма Пингвин фильтрует арендованные ссылки.

Penguin накладывает санкции в случае обнаружения:

Чтобы не попасть под зоркий взгляд Пингвина, нужно периодически отслеживать свой ссылочный профиль. 2-3 спамные ссылки, конечно же, не приведут к санкциям, но внезапное получение сотен неестественных ссылок – повод привлечь внимание алгоритма Google Пингвин.

Колибри Google

С 2013 года пользователи Google в ответ на свои запросы стали получать не просто сайты с ключевиками, а результаты, подходящие по смыслу к запросу.

Цель алгоритма Колибри – предоставить релевантные результаты, основываясь на смысловой составляющей поискового запроса.

Благодаря этому алгоритму, Google улучшил понимание синонимов и разделяет содержание веб-страницы по тематике. Теперь в результатах поиска можно увидеть сайты, на которых нет прямого запроса пользователя, зато есть его синонимы.

Колибри остро реагирует на переспам конкретного ключевого запроса, по которому вы хотите продвигать сайт, если в тексте не использованы задающие тематику страницы слова. Вы очень хотите попасть в ТОП Google именно по запросу «купить платье»? Осторожно! С алгоритмом Колибри, если переборщить с ключами, можно достичь прямо противоположного эффекта.

Несколько советов как избежать столкновения с Колибри:

Также не забываем о читабельности текста. Если он был написан в стиле робота для поисковиков с огромным количеством коряво вписанных ключей, готовьтесь, Колибри скоро прилетит и к вам.

Это были 3 основных алгоритма Google, под фильтры которых чаще всего попадают сайты.

Предлагаю ознакомиться с еще несколькими алгоритмами:

  1. Google’s Pirate Update. Алгоритм борется с сайтами, на которых выставлен пиратский контент. Чаще всего это касается ресурсов с музыкой, фильмами, книгами, которые бесплатно доступны для просмотра и скачивания. Сайты, на которые регулярно поступают жалобы за пиратское содержание, существенно понижаются в ранжировании.
  2. Голубь и Опоссум. Предоставляют релевантные результаты локального поиска, т.е. теперь показ ответов в Google на запросы зависит от местонахождения пользователей. Алгоритм Голубь позволяет по запросу, к примеру, «ресторан» получить выдачу по заведениям, которые находятся именно в вашем городе, игнорируя раскрученные ресурсы из другой местности.
  3. Mobile Friendly Update. Сайты, оптимизированные под мобильные версии, теперь более высоко ранжируются в результатах мобильного поиска Google. Пользователям теперь не нужно, к примеру, масштабировать текст, на веб-ресурсах все предусмотрено для просмотра с мобильных девайсов.
  4. Rank Brain. Представляет собой систему машинного обучения, которая по поведению посетителей веб-портала определяет насколько содержание страницы было полезно пользователям. Алгоритм Google самообучается и со временем предоставляет максимально полезные результаты.
  5. Фред. Данный алгоритм Google отфильтровывает сайты, которые пестрят обилием различных видов рекламы, страницы с огромным количеством исходящих ссылок. Фред, как и другие алгоритмы Google, борется с роботизированными текстами, которые неинтересны и не полезны посетителям сайта.

Друзья, думаю, вы уже заметили, что Google стоит на страже экспертного, полезного контента, сайтов, которые удобны для посетителей. А что же Yandex? Что ждать владельцам сайтов от этого поисковика? Читайте дальше!

Алгоритмы работы Yandex: обзор последних апдейтов

Yandex также не стоит на месте и с момента своего основания ввел в работу, изменил и обновил. Внимание! 21 алгоритм. Были задействованы и антиспам-фильтры, и системы, определяющие релевантность изложенного на сайте материала. В отличие от Google, который присваивает своим алгоритмам названия из фауны, Yandex предпочитает более строгий name – названия городов.

Давайте подробнее остановимся на последних алгоритмах ранжирования Яндекс.

Палех Yandex

Алгоритм позволяет Yandex лучше понимать то, о чем его спрашивают пользователи. Благодаря Палеху поисковик находит веб-страницы, содержание которых по смыслу отвечает запросам, а не просто по наличию ключевых слов.

Может заинтересовать статья: Какие бывают ключевые слова и как их гармонично вписать в статью?

Как работает алгоритм Яндекс? У Yandex есть график частотного распределения запросов, который представлен в виде сказочной Жар-птицы. Самые частые запросы – это клюв птички, СЧ – туловище, НЧ – образуют длинный хвост пернатой.

Один из новых алгоритмов Яндекса Палех позволяет лучше отвечать на сложные запросы пользователей из категории длинного хвоста. Чтобы наиболее точно ответить на такой запрос как:

фильм про человека, который выращивал картошку на другой планете

Разработчики привлекли нейронные сети. Это один из видов машинного обучения, т.е. алгоритм Yandex не просто предоставляет релевантные ответы на запросы, но и учится в процессе работы.

Основная цель алгоритма Палех – повышение качества поиска для редких запросов и запросов, заданных на естественном языке.

Таким образом, для продвижения в Yandex можно использовать не только краткие и конкретные ключи типа: заказать книгу, но и развернутые запросы: где лучше всего недорого заказать книгу?

Баден-Баден Yandex

Нашумевший в 2017 году алгоритм Яндекса под названием Баден-Баден борется с переоптимизированными текстами.

Основная цель алгоритма Yandex – предоставлять пользователям полезные, смысловые тексты без переспама.

В зоне риска теперь сайты, у которых:

Пример такого сайта:

Интересно вам читать такие тексты? Я думаю, нет. Если содержание не несет смысловой нагрузки, то такой сайт – кандидат №1, чтобы попасть под санкции алгоритма Баден-Баден Yandex. Это значит, что переоптимизированные страницы потеряют свои позиции или вообще покинут зону выдачи Яндекс.

Что предпринять, чтобы не очутиться на задворках поисковой выдачи:

В качестве примера приведу одну из работ команды Textum:

Разница с первым примером очевидна – посетители сайта даже не замечают ключи, просто читают статью об особенностях и преимуществах футболок Adidas. Хотите успешно продвигать сайт в Yandex? Забудьте о ТЗ, в которых на 1000 збп указана необходимость вписать 20 ключей.

Королев Yandex

Это один из последних алгоритмов Яндекса. Это еще более усовершенствованная система, которая умеет искать ответы не только по ключам, но и по смыслу (как и Палех). Yandex уверенно развивается и идет от машинного обучения поисковых алгоритмов к пониманию смысла запроса. Алгоритм также построен на основе нейронных сетей.

Алгоритм Королев от Yandex учится определять:

Первые места в ТОП-выдачи Yandex отдает сайтам с интересными статьями, показывает пользователям контент, релевантный не по словесному, а по смысловому содержанию.

Кроме заголовка и текста страницы, Королев также учитывает запросы, по которым на определенный сайт приходили посетители. Вся информация для обучения алгоритма собирается из поисковой статистики Yandex.

Кроме того, Королев понимает, что изображено на картинке и отвечает на запросы пользователей не только ссылками на текст, но и подходящими изображениями. Отличие этого алгоритма от Палех в том, что Палех анализирует только заголовки страниц, Королев – заголовки + содержание + картинки.

В настоящий момент Королев – самый новый алгоритм поиска Яндекс, в 2018 он продолжает самообучаться, предоставляя пользователям наиболее релевантные сайты, независимо от сложности запроса.

Различия в работе алгоритмов Google и Yandex

Что ж, друзья, полпути пройдено и с основами работы 2-х поисковых машин мы с вами ознакомились. Думаю, не лишним будет сравнить между собой особенности поисковых алгоритмов Яндекса и Гугла. Ведь чаще всего работы по продвижению сайтов проводятся под обе поисковые машины одновременно. Это помогает привлечь на веб-ресурс больше посетителей, увеличить объемы продаж.

ПАРАМЕТРЫ

 

 

GOOGLE

 

YANDEX

Количество ключей

Не приветствует статьи с большим числом прямых вхождений ключей. Оптимальная плотность вхождения ключевиков – 1,5-3%.

 

Уникальность контента

Оба поисковика за уникальные тексты при шингле равном 3-4 словам.

 

Размер текста

Хорошо относятся к оптимизированным текстам объемом от 6-10 збп.

Мета-теги страниц

Большое количество ключей в прямом вхождении лучше не употреблять, при этом словоформы можно и нужно использовать.

 

Плохо относится к частому повторению ключей, всевозможные словоформы считает за повторения.

 

Ссылки

Оба поисковика не одобряют использование одинаковых анкоров в ссылках и борются с неестественной ссылочной массой.

 

Ранжирование

Быстро реагирует на оптимизацию, выдача может поменяться несколько раз в день.

Выдача меняется чаще всего во время апдейтов.

Если вы хотите оптимизировать веб-ресурс или написать статью, которая в одинаковой мере понравится Google и Yandex, придерживайтесь золотой середины: умеренно употребляйте ключи в тексте, title и description, применяйте разбавленные анкоры, не стоит сокращать, но и не сильно растягивайте тексты.

Читайте также: Покупка вечных ссылок: 4 шага от хаоса к порядку.

 

5 советов: что нужно изменить на сайте в 2018 году?

Вот и пришло время практических рекомендаций от Textum.

Какие работы нужно провести в 2018 году для оптимизации сайта:

  1. Поработать с проблемными страницами. Сюда относятся низкокачественные лендинги, разделы веб-портала, перенасыщенные рекламой, страницы с дублирующим содержанием или минимальным количеством текста (до 400 слов). Также нужно постараться избавиться от страниц (с 4 уровнями вложенности), добраться до которых пользователю нужно 4 и более раза кликнув (начиная с главной страницы).
  2. Писать объемные материалы. Не целые диссертации, конечно. Например, текст на 10 000 збп будет странно смотреться в разделе с карточкой товаров, но страница с количеством слов до 400 может вызвать повышенный интерес алгоритмов Google и Yandex.
  3. Сделать сайт легче. Если на вашем ресурсе огромное количество страниц, на которых сложно найти нужную информацию – шанс попасть под надзор алгоритмов поисковиков Yandex или Google. Заблокировать ненужные страницы можно с помощью Robots.txt, также стоит удалить или комбинировать между собой похожие страницы.
  4. Улучшить внутреннюю перелинковку. Стоит добавить дополнительную навигацию на страничке, например, по интересным статьям. От циклических ссылок лучше избавиться раз и навсегда, их в одинаковой степени не любит Google и Yandex.
  5. Редактировать контент. Google и Yandex стали очень требовательными читателями и малоинформативный контент не пропустят в ТОП-выдачи. Поэтому перед размещением статей на сайте нужно еще раз спросить себя: «Полезен ли материал для пользователей, найдут ли они в нем ответы на свои вопросы?»
Полезная статья по теме: Чек-лист для проверки текста на «профпригодность»: вычитка, редактирование, форматирование (часть II).

Также обязательно наполнять сайт видео, фото, не только продающими, но и информационными ключами, например, какую юбку подобрать к блузке или как выбрать матрас. При этом нужно прописывать к картинкам alt, а к статьям мета-теги с релевантными ключами. И, конечно же, не забывайте про мобильную версию веб-портала.

Что можно сказать в конце? Поисковая оптимизация сайтов – дело нужное и важное. Но переборщить с переоптимизацией, значит попасть под действие алгоритмов Google и Yandex. Поэтому учитывайте все описанные выше рекомендации, читайте последние новости по апгрейдам поисковиков, пишите и наполняйте ресурсы интересными, полезными статьями, как это делает команда Textum.

У вас есть, что добавить к материалу? Хотите поделиться личным опытом или вы знаете еще нераскрытые секреты алгоритмов работы поисковых систем Google и Яндекс? Жду от вас комментарии здесь или на страничках группы Textum в Facebook и Instagram.

Друзья, предлагайте темы, которые вам интересны, мы обязательно рассмотрим их в следующих статьях нашего блога!

До новых встреч!

textum.com.ua

Алгоритмы Яндекса - новые и старые, хронология за 2007-2017 года

Привет уважаемые читатели seoslim.ru! Тем, кто интересуется SEO и пытается развивать сайты правильно будет полезно узнать обо всех алгоритмах Яндекса, чтобы лучше понимать по каким критериям поисковая машина их ранжирует.

На протяжении всего времени Yandex постоянно вносит правки в работу алгоритмов: используются нейронные сети, устраняются ошибки, дорабатывается функционал, появляются новые фильтры и так далее.

Делается всё, чтобы выдача максимально точно отвечала на запросы пользователя.

По приведенным ссылкам вы узнаете о истории развитии компании, принципах работы поисковой машины и всех известных фильтрах.

В этой статье предлагаю всем освежить память и восстановить хронологию, дабы посмотреть, как происходила эволюция поисковых алгоритмов ранжирования Яндекса за период 2007 — 2017 годов.

Далее о каждом из них более подробно.

История алгоритмов Яндекса

«Безымянный или Версия 7» (июль 2007) — первый алгоритм, о котором было объявлено публике, цель которого улучшить релевантность выдачи.

Анонс на searchengines.guru

«8 SP1» (январь 2008) — после обновления в ТОП стали попадать старые авторитетные сайты, а ссылки стали товаром.

«Магадан» (май 2008) — запуск новой версии поиска, теперь поисковая программа могла решать ряд задач:

Анонс на yandex.ru/blog/

«Находка» (сентябрь 2008) — упор был сделан на изменения факторов ранжирования.

Анонс на yandex.ru/blog/

«Анадырь-Арзамас» (апрель 2009) — нововведения сильно пошатнули ТОП-выдачу.

Теперь молодым сайтам стало еще сложнее продвигаться, так как Яшка не могу определить их региональную принадлежность.

Релиз в yandex.ru/blog/

«Снежинск» (ноябрь 2009) — изменен подход к построению ранжирования, что позволило еще больше улучшить качество поиска.

Анонс на yandex.ru/blog/webmaster/

«Конаково» (декабрь 2009) — был обновлением предыдущего алгоритма Снежинск.

Релиз на yandex.ru/blog/webmaster/

«Обнинск» (сентябрь 2010) — запуск нового алгоритма, цель которого улучшить ранжирование по гео-независимым запросам.

Подробнее в yandex.ru/blog/

«Краснодар» (декабрь 2010) — основой данного алгоритма стала технология «Спектр», которая могла отвечать на неточные запросы пользователей, благодаря разбавленным ответам из 60-ти категорий.

Источник yandex.ru/blog/

«Рейкьявик» (август 2011) — теперь поиск стал персонализированным, то есть для каждого отображалась своя выдача.

Анонс запуска на yandex.ru/blog/company/

«Калининград» (декабрь 2012) — глобальная персонализация поисковой выдачи для запросов и подсказок.

Источник yandex.ru/blog/

«Дублин» (май 2013) — следствие обновление предыдущего алгоритма Калининград.

Теперь персонализированный поиск мог реагировать на сиюминутные запросы пользователя.

Если раньше Яндекс обновлял данные об интересах пользователей раз в сутки, то теперь Яшка стал анализировать текущую поисковую сессию.

Подробнее на yandex.ru/company/

«Острова» (июль 2013) — запуск новой островной выдачи и сервисов.

Предполагалось, что пользователь будет решать свои вопросы прямо в выдаче без перехода на сайт с помощью интерактивных блоков, например, купить билет в кино или на самолёт, заказать столик в кафе и др.

Подробнее в yandex.ru/blog/company/

«Объектный ответ» (апрель 2015) — после запуска данной технологии в поиске справа, появилась карточка с общей информацией о предмете запроса. Подобное решение имеется и у Google.

Пример смотрите на yandex.ru/company/

«Минусинск» (май 2015) — цель этого алгоритма занижение позиций сайтов в выдаче, которые для продвижения используют SEO-ссылок в ссылочном профиле.

Яндекс рекомендуют вебмастерам больше уделять внимание улучшению сервисов на сайте, контенту и дизайну.

Подробнее yandex.ru/blog/webmaster/

«Владивосток» (февраль 2016) — новый алгоритм нацелен на учёт факторов мобилопригодности сайтов. Теперь в мобильном поиске будет большее значение отводиться сайтам, адаптированным под мобильный интернет.

Особенности алгоритма на yandex.ru/blog/

«Палех» (ноябрь 2016) — благодаря новому алгоритму Яндекс научился отвечать на сложные запросы пользователей.

Впервые в поиске стал использоваться искусственный интеллект, который с помощью нейронных сетей может понимать запросы пользователей не по словам, а по смыслу.

Подробно про работу алгоритма yandex.ru/blog/

«Баден-Баден» (март 2017) — алгоритм, который направлен на борьбу с переоптимизированными страницами. Если на сайте будут найдены подобные тексты, то позиции таких страниц или всего сайта в выдаче будут ухудшены.

Подобные нарушения отображаются в Яндекс.Вебмастере, раздел «Диагностика» — «Безопасность и нарушения».

Анонс алгоритма в yandex.ru/blog/webmaster/

«Королёв» (август 2017) — запуск новой версии поисковой выдачи или продолжение алгоритма Палех. Благодаря нейронной сети, Яндекс может наиболее точно давать ответы на сложные и многословные запросы.

Искусственный интеллект собирает данные на основе оценок пользователей, поисковой статистики, асессоров и толокеров.

Подробнее читайте на yandex.ru/blog/webmaster/

На этом все, с выходом нового алгоритма статья будет дополняться, так что добавьте ее в закладки, чтобы быть в курсе последний нововведений Яндекса.

seoslim.ru

Три последних алгоритма Яндекс: история поисковых алгоритмов

Вступление

На протяжении очень долгого времени алгоритмы ранжирования Яндекс оставались «секретом» для пользователей. Специалисты поисковой системы Яндекс предпочитали не информировать пользователей сети интернет об изменениях алгоритмов ранжирования. Только в 2007 году сотрудники компании Яндекс стали информировать своих пользователей о введении новшеств в поисковой алгоритм. Это немного облегчив продвижение сайтов для многих вебмастеров.

Поисковые алгоритмы Яндекс в истории развития

Посмотрим на историю алгоритмов Яндекс с 2007 года. Закончат обзор три последних алгоритма Яндекс, позиционируемые как интеллектуальный поиск.

02.07.07: Версия 7.

20.12.07, 17.01.08: Версия 8, Восьмерка SP1.

16.05.08, 02.07.08: Магадан, Магадан 2.0 (уникальность текстов).

11.09.08: Находка.

10.04.09 Арзамас или Анадырь (учёт регионов)

24.06.09 Арзамас 1.1 (региональная формула, без Москвы)

20.08.09 (Санкт-Петербурга, Екатеринбурга)

31.08.09 Арзамас 1.2 (гео зависимость запросов)

23.09.09 Арзамас+16 (16 регионов РФ)

28.09.09 Арзамас 1.5 (обобщенная формула гео независимых запросов), Арзамас 1.5 SP1 (улучшение региональной формулы гео зависимых запросов)

17.11.09: Снежинск.

22.12.09, 10.03.10: Конаково.

13.09.10: Обнинск.

15.12.10: Краснодар (технология «Спектр»)

17.08.11: Рейкьявик (персонализация выдачи – начало).

12.12.12: Калининград (персонализация выдачи – расширение)

30.05.13: Дублин (персонализация выдачи – улучшение)

12.03.14: Началово (отменяют учет ссылок)

05.06.14: Одесса (Острова) неудачный алгоритм устранен.

01.04.15: Амстердам.

15.05.15: Минусинск (понижение в ранжировании за избыток  SEO-ссылок)

14.09.15: Киров.

02.02.16: Владивосток (учёт адаптированного дизайна сайта).

Три последних алгоритма Яндекс

Палех

1. Второго ноября (02.11.2016) выходит новый алгоритм Палех. (https://yandex.ru/blog/company/algoritm-palekh-kak-neyronnye-seti-pomogayut-poisku-yandeksa)

Алгоритм Палех начинает период внедрения в поиск Яндекс, нейронных сетей. Вводится понятие семантического вектора и «длинного хвоста запроса». По внедренным нейронным сетям, алгоритм Палех должен «обучаться» и понимать смысл, даже длинного запроса без вхождения в запрос ключевых слов. Цель данного алгоритма, улучшить поисковую выдачу. Как следствие, улучшение выдачи для НЧ запросов и запросов, сделанных на естественном языке.

В алгоритме «Палех», Яндекс обучил нейронную сеть из  запросов поиска и title веб-страниц создавать семантические векторы (числовые группы). Эти группы позволили сравнивать запросы между собой. То есть, поисковик смог анализировать не слова, а наборы цифр по этим словам. Это значительно расширило возможность сравнения запросов.

Баден-Баден

2. Двадцать третьего марта (23.03.2017) сообщают о новом алгоритме Баден-Баден. (https://yandex.ru/blog/webmaster/baden-baden-novyy-algoritm-opredeleniya-pereoptimizirovannykh-tekstov)

Новый алгоритм Баден-Баден, ударил по переоптимизированным статьям. В алгоритме стали не только считать количество ключей в статьях, но и фильтровать (понижать в выдаче) сайты с переоптимизированными текстами.

Королёв

3. Двадцать второго августа (22.08.2017) состоялась презентация нового алгоритма Королёв.( https://yandex.ru/blog/company/korolev)

Яндекс продолжил внедрение нейронных систем в поиск. В развитии алгоритма Палех, «Королёв» стал сравнивать поисковые запросы не только с title статьи, но со всей статьёй с целом. «Королёв» вычисляет семантические векторы заранее, а не в режиме реального времени, еще на этапе индексирования.

Вывод

Три последних алгоритма Яндекс, завершают обзор, но точно не завершают историю Яндекс.

©wordpress-abc.ru

Другие статьи раздела SEO начинающим

Статьи связанные по теме:

www.wordpress-abc.ru

Компания Яндекс — Технологии — Матрикснет

В 2009 году Яндекс внедрил новый метод машинного обучения — Матрикснет. Важная особенность этого метода — в том, что он устойчив к переобучению. Это позволяет учитывать очень много факторов ранжирования — и при этом не увеличивать количество оценок асессоров и не опасаться, что машина найдет несуществующие закономерности. Матрикснет — это метод машинного обучения, с помощью которого строится формула ранжирования Яндекса.

С помощью Матрикснета можно построить очень длинную и сложную формулу ранжирования, которая учитывает множество различных факторов и их комбинаций. Другие методы машинного обучения позволяют либо строить более простые формулы с меньшим количеством факторов, либо нуждаются в большей обучающей выборке. Матрикснет строит формулу с десятками тысяч коэффициентов. Это позволяет сделать существенно более точный поиск.

Ещё одна важная особенность Матрикснета — в том, что формулу ранжирования можно настраивать отдельно для достаточно узких классов запросов. Например, улучшить качество поиска только по запросам про музыку. При этом ранжирование по остальным классам запросов не ухудшится. Для примера можно представить себе формулу ранжирования в виде сложного механизма с большим количеством ручек. На механизмах, построенных по другим технологиям, каждая ручка влияет на все запросы. Матрикснет даёт возможность настроить каждую ручку отдельно для своего класса запросов.

Кроме того, Матрикснет автоматически выбирает разную чувствительность для разных диапазонов значений факторов ранжирования. Это в чём-то похоже на работу на аэродроме — когда среди постоянного шума взлетающих самолётов нужно слышать и голоса людей. Если заткнуть уши, то самолёты будут слышны, а голоса — нет. Сотрудники аэропорта работают в специальных наушниках, слабо чувствительных к громкому шуму — так можно услышать и самолёты, и голоса людей.

Поскольку поисковая система работает с очень большими объёмами информации, по каждому запросу ей нужно проверить признаки миллионов страниц, определить их релевантность и соответственно упорядочить — так, чтобы сверху оказались более подходящие страницы. Чтобы проверить свойства всех страниц по очереди, нужно либо очень много серверов, которые могут быстро обработать информацию обо всех страницах, либо очень много времени — а поиск должен работать быстро, иначе пользователи не дождутся результатов. Матрикснет позволяет проверить очень много факторов за короткое время и без существенного увеличения вычислительных мощностей.

Поиск ведётся одновременно на тысячах серверов. Каждый сервер ищет по своей части индекса и формирует список самых лучших результатов. В него гарантированно попадают все самые релевантные запросу страницы.

Дальше из этих списков составляется один общий, и страницы, попавшие туда, упорядочиваются по формуле ранжирования — той самой длинной и сложной формуле, построенной с помощью Матрикснета, с учётом всех факторов и их комбинаций. Таким образом, наверху поисковой выдачи оказываются все самые релевантные сайты — и пользователь почти мгновенно получает ответ на свой вопрос.

yandex.ru

Новый алгоритм ранжирования Яндекса — Королёв

Яндекс анонсировал запуск нового алгоритма ранжирования «Королёв», который является логическим развитием подхода «Палех». Основное отличие — вместо оценки смыслового соответствия запрос-заголовок (Title) для каждого документа, оценивается весь текст со страницы.

В новом алгоритме Яндекса «Королёв»:

Основные изменения должны будут коснуться «длинного хвоста» поисковых запросов.

Источник изображения — Яндекс.

Именно для длинных и редких поисковых фраз (часто заданных на естественном языке) — новая группа факторов будет играть большую роль.

Вместе следим за изменениями в выдаче Яндекса с помощью апометра «Пиксель Тулс». Кстати, очень интересные изменения в ТОП-100 были замечены уже начиная с 8 августа, не были ли это первые признаки тестирования новой формулы ранжирования?

Дополнительные материалы и ссылки

  1. Описание алгоритма «Королёв» на «Хабрахабр» — https://habrahabr.ru/company/yandex/blog/336094/.

  2. Полный список алгоритмов ранжирования «Яндекса» с их описанием — https://pixelplus.ru/samostoyatelno/stati/prodvizhenie-saytov/algoritmy-ranzhirovaniya-yandex.html.

  3. Анонс и описание алгоритма «Палех» на «Хабрахабр» — https://habrahabr.ru/company/yandex/blog/314222/.

Презентация новой версии поиска (видео)

tools.pixelplus.ru

Современный алгоритм ранжирования от поисковой системы Яндекс

Всем привет! На связи Чуешов Роман и сегодня, друзья, я спешу поведать вам очень важную и самую свежую информацию, которая в большинстве случаев будет полезна разработчикам, блогерам и сео-оптимизаторам сайтов. 2.02.2016 поисковый гигант от Яндекса запустил свой алгоритм ранжирования адаптивных к мобильным устройствам сайтов. Что же теперь делать и что будет с выдачей в ПС Яндекс по тем или иным запросам? Обо всех подробностях читайте в данном посте.

Еще в конце 2015 года Яндекс говорил о внедрении нового алгоритма ранжирования сайтов по пригодности к просмотру на планшетах и смартфонах. И в тоже время он стал помечать сайты и блоги значком «мобильная версия».

Данный алгоритм («Владивосток») уже заработал в России, а в ближайшее время заработает в Украине, Казахстане, Турции и Белоруссии. Почему «Владивосток»? Все очень просто. По статистике именно в столице Дальнего Востока больше все пользователей мобильного интернета, отсюда и соответствующее название.

Кстати, Google уже довольно давно ввел подобную «ранжировку». Так что теперь халявщикам и экономам не отвертеться, если они хотят продвинуть свои ремурсы и заработать деньги в интернете.))

Что это значит для вебмастеров?

Как заверяет нас Яндекс, сайты у которых отсутствует мобильная (адаптивная) версии, будут понижаться в поисковой выдаче, т.к. наличие адаптивной версии является всего лишь одним из критериев ранжирования, но не самым главным, пока.

Чтобы ваш сайт находился в верхнем списке выдачи необходимо:

  1. Чтобы текст и картинки были оптимизированы под все разрешения экрана и отображались правильно, без сдвигов, обрезаний и т.д.
  2. На вашей интернет странице не должно быть никаких элементов не поддерживаемых браузерами смартфонов и планшетов. Таких как Java-апплетов, Flash-а, и некоторых плагинов.
  3. Видео должно быть обязательно с поддержкой HTML 5.
  4. Использование именно адаптивной версии, а не метода изменения размера экрана.

По данным российского поисковика только 18% всего контента интернет ресурсов оптимизированы под мобилы.

Друзья, учтите это при разработке своих блогов. Могу вас заверить, что чем дальше будет развиваться интернет технологии, тем все сложнее будет продвигать свои ресурсы нам блогерам и вебмастерам. Поэтому если у вас уже есть блог, но нет его мобильной версии, то самое время задуматься над этим. А те кто только собирается его создавать то необходимо продумать дизайн своего мобильного сайта заранее. Это уже задел на настоящее, а не будущее, как говорили несколько лет назад.

Поэтому читайте мой блог и следите за новостями, в которых я расскажу как можно проверить свой ресурс на наличие мобильной версии и вообще создать и раскрутить его правильно по всем современным требованиям интернета.

На сегодня — это все, о чем я хотел вам рассказать. Адаптируйте свои блоги и будете всегда в Топе. Удачи и пока-пока!

С уважением, Роман Чуешов

Прочитано: 35 раз

romanchueshov.ru

Королёв: новый алгоритм ранжирования Яндекса

«Яндекс» громко представил новый алгоритм «Королев», усиливающий влияние технологий ИИ на выдачу. С помощью искусственных нейронных сетей поисковик учат понимать, что именно нужно пользователям. Действие алгоритма направлено на редкие НЧ запросы.

Семантические алгоритмы – революция в поиске

С алгоритмом «Королев» сделан еще один шаг в направлении обучения нейронных сетей. Меняется сам подход. Хотя поиск Яндекса все еще опирается на слова, все больше учитывается их смысл. Когда-то поисковик опирался на ключевые слова, после начал учитывать косвенные признаки (ссылки, поведение), а благодаря алгоритмам на основе нейросети – научился понимать сам контент.

Как работает алгоритм «Королев»

Семантические векторы впервые были применены год назад в алгоритме «Палех». Пользователи затрудняющиеся с правильной формулировкой запроса, смогли получать желаемый результат. У обоих алгоритмов общий принцип: нейронная сеть обращает тексты страниц в семантические векторы, которые сравнивает с вектором запроса. В отличии от «Палеха», умевшего сопоставлять необычные длинные фразы запросов с заголовками, теперь задействована вся страница.

Наборы векторов страниц состовляются по смыслам, учитываются толкования разными словесными выражениями

Но вычисления в реальном времени ресурсозатратны. Новый алгоритм Яндекса уже с момента индексирования собирает статистику для векторов страниц. Анализируя другие запросы к странице, продолжительность посещений и прочее, алгоритм «Королев» устанавливает дополнительные смысловые связи.

По кол-ву обрабатываемых страниц, «Королев» 2017-го в 1000 раз превосходит алгоритм поиска 2016 «Палех»

«Умный» алгоритм понимает не только смысл выражений, но и визуальный контент. Это должно повысить эффективность поиска по картинкам, т.к. помимо заголовока / текста астатьи, Яндекс сможет учитывать само изображение на картинке.

Что нового внесет семантический поиск

Следует ожидать изменений в некоторых факторах ранжирования.

Понижающее действие алгоритма:

Повышающее действие алгоритма:

Что дальше?

Современный поиск Яндекса базируется на технологии машинного обучения Матрикснет. Но наступление искусственного интеллекта продолжается – начиная с самообучающейся системы «MatrixNet» 2009-го, алгоритма на основе нейросетей «Палех» 2016 года (аналога Колибри от Google) и его более продвинутой версии «Королёв». В Яндексе заявляют о намерении продолжать развитие модели семантических векторов. В будущем предстоит решить задачи персонализации и с помощью искусственных нейронных сетей научить поисковую машину лучше понимать смысловые связи.

seo-design.net


Prostoy-Site | Все права защищены © 2018 | Карта сайта