Техническая оптимизация сайта! ТЗ или основные требования к сайту! Техническая оптимизация


Техническая оптимизация (доработки) сайта

Энциклопедия поискового продвижения Ingate

        Ваш запрос успешно отправлен

Ваш запрос не отправлен

Выполнение технических доработок – самый первый и наиболее важный этап поисковой оптимизации сайта. Обычно эта процедура проводится только один раз, перед стартом продвижения. В дальнейшем возможна корректировка некоторых технических составляющих сайта.

Техническая оптимизация сайта (технические доработки) – это комплекс мер, направленных на корректировку технических аспектов сайта, с целью улучшить его взаимодействие с роботами поисковых систем.

Основная задача технической оптимизации – обеспечить максимально полную и быструю индексацию страниц сайта. Без проведения технических доработок эффективное продвижение сайта значительно усложняется или вовсе становится невозможным.

Обратите внимание, что в «Энциклопедии поискового продвижения» мы не даем инструкций по технической доработке сайта, а рассказываем о наиболее распространенных проблемах и способах их решения. Эта информация поможет вам правильно поставить задачу веб-разработчикам. Вносить технические изменения в сайт должны специалисты, обладающие необходимыми знаниями и умениями. Неквалифицированное вмешательство в код сайта способно привести к его полной неработоспособности.

Здесь и далее мы рассматриваем решения для сайтов, которые обслуживаются HTTP-сервером Apache, поскольку, по данным исследовательской компании Netcraft, этим типом сервера обслуживается более 60% всех сайтов в мире.

Технические доработки сайта делятся на следующие группы:

Пренебрежительное отношение к технической оптимизации не дает многим хорошим сайтам достичь ТОПа.

Правильное и полное выполнение всех необходимых технических доработок является залогом корректной и быстрой индексации страниц сайта популярными поисковыми системами.

Вернуться назад: Этапы оптимизации Читать далее: Устранение проблем с хостингом и оптимизация кода сайта

 

 

 

www.sembook.ru

Технический аспект самостоятельной SEO оптимизации сайта

Фундаментом любого сайта является его техническая сторона. Помимо широкого и приятного функционала, красивой обертки и юзабилити для продвижения очень важна SEO оптимизация, которая позволит роботам поисковых систем быстро и правильно индексировать содержимое ресурса. Давайте определим основные моменты, которые следует учесть для SEO оптимизации сайта.

1. Кабинеты вебмастеров и счетчики

Начиная работу над продвижением своего ресурса, нужно зарегистрировать его в кабинетах вебмастеров. Это самый лучший сигнал для поисковых систем, и вскоре роботы начнут посещать сайт.

Однако, недостаточно просто добавить домен, кабинеты необходимо правильно настроить. Например, в Яндекс.Вебмастере не будет лишним:

Помимо прочего, вебмастера располагают массой полезных инструментов:

Для получения более полной и подробной информации о посещаемости и поведении пользователей на вашем сайте зарегистрируйте и установите счетчики посещаемости. Счетчик – это прекрасный инструмент, который поможет разобраться, как и в каком направлении двигаться, работая над популярностью ресурса.

2. Robots.txt

Текстовый файл robots.txt должен присутствовать у каждого сайта и быть доступен по адресу example.ru/robots.txt. Это первый файл, к которому обращаются роботы при посещении сайта и в котором хранятся инструкции для них.

Простыми словами, robots.txt – свод рекомендаций, которые указывают, что можно индексировать, а что нельзя (но не факт, что роботы будут следовать им строго).

В зависимости от того, на какой системе управления работает ваш сайт, формируются эти самые правила. Давайте кратко определим, что должно быть в данном файле:

  1. Должны быть указаны правила для разных роботов (User-agent: Yandex, User-agent: GoogleBot и т.д.), т.к. правила и директивы для каждого из них могут отличаться.
  2. Закрыты от индексации все системные ресурсы (шаблоны, исполнительные файлы и т.д.).
  3. Закрыто все, то что не должно присутствовать в поиске (страницы регистрации/авторизации, результаты фильтрации/поиска и т.д.).
  4. Указана директива Host для робота Yandex.
  5. Указана карта(ы) сайта sitemap.xml.
  6. Для робота GoogleBot должны быть открыты файлы, влияющие на отображение сайта (js, css, изображения, шрифты). Подробнее об этом можно почитать тут.

Более подробно о настройке robots.txt можно прочитать здесь и здесь.

3. Sitemap (карта сайта)

Карта сайта – один основных способов улучшения навигации по сайту как для поисковых роботов, так и для пользователей.

Для роботов карта сайта генерируется в формате xml и должна содержать все ссылки, которые будут индексироваться и участвовать в выдаче.

Для многих популярных CMS существуют специальные плагины, позволяющие создавать и настраивать карту (например Google XML Sitemaps для WordPress или XMap для Joomla). Если сформировать карту при помощи дополнений нет возможности, то здесь помогут различные онлайн-генераторы, например MySitemapGenerator, или же настольные приложения, например ComparseR, Sitemap Generator.

Не будет лишним добавление карты сайта в формате html (обычная страница со списком разделов и ссылок). Она облегчит навигацию как для посетителей, так и для роботов. Не стоит делать её слишком объемной, например, для интернет-магазина достаточно будет сделать иерархию из основных разделов и категорий.

4. Битые ссылки

Битая ссылка – это ссылка, которая ведет на несуществующую страницу (документ, изображение, другой сайт).

Большое количество таких ссылок отрицательно сказывается на отношении пользователей к вашему ресурсу, ведь мало кому понравится видеть сообщения об ошибке вместо интересующего материала.

Поисковые системы тоже способны сделать некие отрицательные выводы о ресурсе с чрезмерным количеством таких ссылок, например, что контент не актуальный, сайт не обновляется (за ним попросту не следят) и т.д.

Не ленитесь регулярно проверять свой ресурс на наличие битых ссылок. Воспользуйтесь довольно удобным сервисом для поиска.

Подробнее о битых ссылках можно прочитать здесь.

5. Исключение дублей

Дубли страниц – это доступность одного и того же материала по нескольким адресам.

Наличие дублированного контента приводит к следующим проблемам:

  1. ПС могут неправильно определить основную (релевантную) страницу, что может повлиять на позиции сайта. Поисковые роботы могут склеить адреса, выбрав приоритетной страницей наименее желательную.
  2. Дубли создают дополнительную нагрузку при обходе сайта роботом, в следствие чего увеличивается время на индексацию.
  3. Увеличивается нагрузка на сервер.

Пожалуй, это одна из основных трудностей технической оптимизации сайта. Если нет возможности устранить дубли технически, нужно воспользоваться канонической ссылкой с атрибутом rel=canonical тега link.

Предположим, что материал доступен по двум адресам:

www.site.ru/page

www.site.ru/page111

Предпочтительным будет первый вариант, а канонический тег будет выглядеть так:

‹link rel="canonical" href="www.site.ru/page" /›

Он должен присутствовать в коде обеих страниц между тегами ‹head› и ‹/head›.

Если и это не удается сделать, имеет смысл закрыть дубли в robots.txt или настроить 301 редирект. Подробнее читаем тут.

6. Настройка ЧПУ

Семантический URL, или человеко-понятный урл (ЧПУ), или SEO-Friendly URL – все это названия URL-пути, состоящего из понятных и наиболее предпочтительных слов как для пользователя, так и для ПС.

Правильно настроенные ЧПУ на сайте позволяют не только определять содержимое страницы (догадаться по названию, что находится в документе), но и улучшают индексацию за счет использования ключевых слов.

Перед тем, как начать формировать адреса, придется определиться, под какую из поисковых систем вы будете подстраиваться. Для Яндекс рекомендуем транслитерацию, для Google – прямой перевод. Например, есть страница «О компании»:

Несколько советов по настройке ЧПУ:

7. Основное зеркало

Почти у каждого домена есть синонимы, по которым доступен ресурс. Это может быть самая распространенная пара example.ru и www.example.ru, или же прикрепленный к основной версии домен на кириллице, домен третьего уровня и т.д. А если установлен SSL сертификат, то и вовсе количество зеркал может возрастать до четырех:

Если все эти версии будут доступны, то рано или поздно поисковики их склеят, признав основным зеркалом один из вариантов, поэтому очень важно позаботиться об этом заранее:

8. SSL сертификат

Давно не является тайной тот факт, что наличие SSL сертификата благоприятно влияет на отношение не только поисковых систем к сайту, но и обычных посетителей. Ведь даже самый простой (бесплатный) сертификат дает гарантию подлинности домена и обеспечивает безопасность передаваемой информации (шифрует данные).

Не поленитесь подключить такой сертификат для вашего сайта.

На данную тему уже написана статья, которая даст ответы на все вопросы и поможет корректно перейти на httpS.

9. Семантическая разметка Schema.org

Семантическая разметка (микроразметка) данных Schema.org – это использование специальных html атрибутов и их свойств для отдельных частей контента, которые позволяют улучшить внешний вид сниппетов в поисковой выдаче.

Правильная верстка с такой разметкой позволит преобразить в поисковой выдаче, например:

Товары

Статьи и навигационную цепочку

Рецепты

Семантика также позволит вывести контакты, отзывы об организации и многое другое.

Более подробную информацию о том, для чего нужна микроразметка, а также как её правильно сделать – можно найти здесь.

10. Ответ сервера

Когда пользователь открывает страницу в браузере (или робот начинает ее сканировать), сервер, на котором находится сайт, отдает в ответ на этот запрос код статуса HTTP, то есть предоставляет информацию о вашем сайте и запрашиваемой странице.

Бывает, код статуса отдается неверный. Например, страница рабочая, а статус-код 404, или наоборот, несуществующие страницы отдают код 200. Это нужно обязательно отследить и провести корректную настройку статус-кодов в файле .htaccess.

Особенно важно настроить 404 ошибку. Если страница существует, а сервер при ее запросе сообщает о 404 ошибке, страница не будет проиндексирована поисковиками.

Проверить коды статусов можно с помощью соответствующего инструмента в Яндекс.Вебмастере или приложения «Firebug» для браузера Mozilla Firefox.

11. Скорость загрузки

Скорость работы ресурса, загрузки страниц, выполнения скриптов и т.д. – один из ключевых показателей технической оптимизации. Вряд ли пользователю будет приятно дожидаться долгого ответа сервера, отрисовки страницы, или отправки данных через какую-нибудь форму – он просто уйдет, и, как правило, не вернется.

На этот момент активно обращают внимание и поисковики. Ведь то, что не нравится пользователю – не должно нравиться и ПС.

Чтобы оценить и выявить факторы, которые тормозят работу ресурса, можно воспользоваться инструментом Google PageSpeed Insights. Результатом будут два относительных показателя с рекомендациями необходимых работ для поднятия скорости:

Стоит учесть, что выполнение всех рекомендаций добавит еще одну положительную оценку, которая будет учтена при ранжировании, однако, не факт, что скорость сайта станет идеально высокой.

Итог

Все это только основные моменты, которые следует учесть для технической оптимизации сайта. Помните, грамотное SEO, а в частности техническая оптимизация – это результат большого объема работ, которые в сумме дают хороший эффект, и довольно часто пренебрежение хотя бы одним из параметров может все труды «свести на нет». Если хотите проверить, всё ли у вас в порядке с технической оптимизацией сайта, то SEO-аудит вам в помощь. Если хотите, чтобы не только проверили, но и правильно всё настроили, то вам необходимо Комплексное продвижение «под ключ». Удачи!

© 1PS.RU, при полном или частичном копировании материала ссылка на первоисточник обязательна.

1ps.ru

Техническая оптимизация сайта. Что это?

Мы уже рассматривали такие важные параметры подготовки к продвижению сайта, как оптимизация изображений и текстовая оптимизация. Однако есть еще один существенный момент, с которого следует начинать работу, – это техническая оптимизация сайта.

Можно сказать, что это первый и наиболее важный этап. В основном подобная  операция проводится один раз перед началом продвижения ресурса, а в дальнейшем она лишь корректируется и подправляется. Иными словами, это комплекс действий, которые направлены на корректировку технических нюансов сайта для улучшения взаимодействия его с поисковым роботом.

Главная задача технической оптимизации – обеспечивать максимальную индексацию страниц сайта. Если же упустить из виду какие-либо технические моменты, то это станет значительной преградой на вашем пути к ТОПу в выдаче, а, возможно, и сделает продвижение невозможным.

Безусловно, все технические доработки должны выполняться специалистами-разработчиками сайта. Пользователю или даже владельцу ресурса не стоит «лезть» в HTML-код, так как это может привести к непоправимым последствиям, а в большинстве случаев компании не несут ответственность за нарушения по вине иных лиц.

Рассмотрим основные технические проблемы и пути их решения. Однако еще раз напомним:  любые изменения должны вносить специалисты. 

При правильной технической оптимизации у поискового робота нет никаких претензий к отображению страниц и сайта в целом, ресурс не выдаёт ошибки и сбои, а – следовательно - индексируется быстро и хорошо.

Пять основных моментов технической оптимизации

Этот текстовый файл должен быть в корневой категории вашего сайта. Он содержит определенные инструкции для поискового робота, который обращается к нему в первую очередь. В этом файле можно указать те страницы, которые нельзя индексировать (допустим, системные или дублированные). Также в нём указывается адрес зеркала сайта, адрес карты сайта, а также иная информация для правильной индексации, предназначенная для поисковых роботов.

Все адреса должны формироваться по следующей схеме (проверьте это):

Например, http://mysite.ru/katalog/ и http://mysite.ru/cost/ - правильно.http://mysite.ru/katalog и http://mysite.ru/cost/ - неправильно;

Например, http://mysite.ru/katalog/dress/ - правильно,http://mysite.ru/katalog/платья/ - неправильно;

Для проверки адресов будет удобно воспользоваться картой сайта.

Помимо того, что картой сайта пользуются роботы, она полезна и удобна для пользователей.  С её помощью легко искать информацию на сайте. Для робота на карте видна структура, а посетителю удобно ориентироваться на сайте. В файле Sitemap  вы также можете прописать инструкции для Яндекса, какие страницы следует индексировать в первую очередь, как часто вы делаете обновления на сайте. Не забывайте, что карта может содержать не более 50000 страниц, иначе вам необходимо создавать второй экземпляр.

В тот момент, когда пользователь открывает страницу или робот начинает её проверку,  сервер с расположения сайта даёт ответ, то есть информацию о состоянии вашего ресурса и необходимой страницы.

Основные коды таковы:

Правда, иногда даётся и неверный код. Предположим, страница может быть рабочая, а код ошибки 404 (либо другие комбинации). Этот момент нужно заранее проверить и отследить, чтобы сделать правильную настройку кодов в файле .htaccess.

Пристальное внимание уделите настройке ошибки 404. Если какая-то страница существует, а сервер сообщает код 404, то индексироваться она не будет. Сделать проверку кодов статусов можно при помощи известного вам Яндекс.Вебмастера.

Наиболее часто встречающаяся ошибка – не настроен редирект с домена www на домен без www (или же обратная ситуация). Выберите, какое доменное имя будет главным и укажите это в файле .htaccess для поисковых систем. Иначе один и тот же сайт будет восприниматься как дубль, что приведёт к проблемам в ранжировании. Это касается и иных редиректов с других зеркал – страницы вида «index.htm», «index.html» и т.д.

Альтернативой файлу robots.txt считается мета-тег name=“robots” со значениями полей «content=“noindex, follow“». Он требует немного более сложной настройки, но при этом более внимательно соблюдается поисковыми системами.

Даже после окончательного формирования списка страниц, закрытых от индексации, всё равно стоит периодически проводить мониторинг сайта на момент возможного появления дублей каких-либо страниц.

Любая ошибка в технической оптимизации, которая будет пропущена изначально, так или иначе будет вам вредить и мешать на пути к ТОПу в выдаче. Постарайтесь убрать каждую из них. В нашем списке мы собрали наиболее распространённые ошибки, которые допускаются создателями сайтов или просто упускаются из вида. 

предыдущие записи

pgdv.ru

как перечеркнуть все старания на пути к ТОПу? — Devaka SEO Блог

Все работы по кропотливой оптимизации сайта могут быть перечеркнуты досадными техническими ошибками, которые помешают:

На борьбу с многочисленными техническими ошибками и направленна данная обзорная статья.

Основные требования к сайтам всех типов

К основным требованиям для сайтов всех типов и размеров относятся приведенные ниже рекомендации, которые отсортированы в порядке их важности и относительной встречаемости в интернете:

1. Настройка 301-редиректа с неглавного зеркала сайта с «www» (или без «www») на главное.

Две статьи руководства по теме:http://www.pixelplus.ru/studio/stat/kak-sdelat-301-redirekt/,https://devaka.ru/articles/redirect-301.

Проверить код ответа сервера любого документа в сети можно с помощью сервиса: http://bertal.ru/ (пригодится и в дальнейшей работе).

2. Установка 301-редиректов с прочих неглавных зеркал сайта на основное (скажем, с доменного имени «www.pxpl.ru» на «www.pixelplus.ru»).

Особое внимание следует уделить тестовым доменам, выделяем на хостинге для настройки вида «http://domain.nichost.ru/», «http://domain.1gb.ru» и аналогичным.

3. Создание и настройка файла robots.txt. Рекомендуется разделить правила для Яндекса и других поисковых систем из-за обработки различных директив (скажем, директиву «Host:» поддерживает только Яндекс, а для Google она является некорректной).

Анализ корректности файла и доступности страниц по ссылке: https://webmaster.yandex.ru/robots.xml.

4. Каждой странице на сайте установлен уникальный тег Title и meta-тег Description отражающие её содержимое.

Проверка уникальности тега Title и meta-тега Description может быть автоматизирована. Здесь мы не затрагиваем вопросы того, как корректно заполнять данные зоны документа, а лишь рассматриваем технический аспект.

Данное требование также относится к страницам постраничной навигации.

5. Настройка ЧПУ для продвигаемых страниц сайта. Оптимально — настроенное ЧПУ для всех страниц сайта.

Проверка качества созданного ЧПУ: предоставляем только URL-адрес странице коллеге и просим его описать, чему посвящена страница?

6. Создать и проверить корректность работы 404-ошибки. Код ответа данной страницы должен быть «404 Not Found».

404-ошибка должна выводиться для ошибочных URL-адресов во всех разделах сайта. Оформить страницу необходимо в дизайне сайта. Также — не производить переадресацию при попадании на несуществующий URL и помочь пользователю быстро найти нужную страницу на сайте (вывести основные ссылки, форму поиска).

7. Проверить коды ответов сервера всех страниц на сайте посредством сканирования проекта. Все страницы доступные по ссылкам должны отдавать код ответа «200 OK».

Помогут программы:

— Page Weight— Netpeak Spider— И аналоги

Соответственно, в случае изменения адреса страницы и простановки 301-редиректа, требуется также скорректировать URL для внутренних ссылок на сайте, чтобы они сразу вели на конечную цель.

8. Проверить время загрузки сайта и размер страницы в КБ. Рекомендованные показатели: до 0.7 сек (700 мс) для времени скачки исходного кода документа, до 0.2 сек (200 мс) для времени ответа сервера и до 120 КБ для размера исходного кода.

Помогут сервисы:

— http://pr-cy.ru/speed_test/— https://developers.google.com/speed/pagespeed/insights/— И другие…

9. Проверить наличие на всех страницах и единственность тега главного текстового заголовка h2.

Содержимое тега — должно ёмко отражать суть текста.

10. Проверить, что теги h2-h6 не используются как элементы дизайна или оформления сайта.

Негативные примеры, h2: Телефон.Сквозной h2-h4: Новости, Акции.

11. Проверить аптайм сервера по отчетам средств статистики. Нормальный показатель: от 99,85% и выше.

12. Создать уникальный и привлекающий внимание favicon.ico и загрузить его в корень сайта.

13. На страницы закрытые от индексации в файле robots.txt требуется скрыть ссылки (посредством AJAX) для корректного распределения статического веса внутри сайта. Так, чтобы в исходном коде документов отсутствовали фрагменты вида «a href=“…» для ссылок на данные страницы.

Сам скрипт также требуется закрыть от индексации.

14. Требуется вынести большие фрагменты JS и CSS в отдельные подключаемые файлы соответствующего типа. Удалить временные комментарии. Это ускорит скачку и интерпретацию кода паукам и браузерами.

К «большим» относятся JS и CSS фрагменты в 8-10 строк и более и комментарии более 3-5 строк.

15. Проверить вёрстку на отсутствие незакрытых парных тегов. Это минимальное требование валидности кода (если строка таблицы «tr» открывается, то она должна закрываться «/tr» и т.д.).

16. Убедиться в корректности отображения основных страниц сайта во всех популярных браузерах. Особое внимание уделить (в порядке доли браузеров): Google Chrome, Android Browser, Mobile Safari, Firefox, Яндекс.Браузер, Opera (Blink).

17. Настройка 301-редиректов со страниц вида «index.php», «index.html», «default.html», на страницы без них (в корень папки, скажем, с «/dir/index.php» на «/dir/»).

18. Настройка 301-редиректа со страниц без слеша на конце «/», на страницы со слешем «/» на конце URL (или, наоборот, в зависимости от настроек CMS и сервера).

19. Настройка 301-редиректа с версии с «https» на основную версию сайта с «http» (или наоборот) в случае её доступности и дублирования.

На текущий момент, поисковые системы стали по умолчанию проверять доступность для индексации версии с «https», что может приводить к дублям контента по разным хостам.

20. Закрытие от индексации страниц входа в CMS-систему вида «/bitrix», «/login», «/admin», «/administrator», «/wp-admin» в файле robots.txt.

Помогает директива Disallow вида:

Disallow: /bitrixDisallow: /loginDisallow: /adminDisallow: /administratorDisallow: /wp-admin

21. Скрыть от индексации страницы с индикаторов «PHPSESSID=», «session_id=» сессий в файле robots.txt.

Важно учесть, что указания в файле robots.txt являются регистрозависимыми. Помогут директивы:

Disallow: *PHPSESSID=Disallow: *session_id=

Актуальность проблемы подтверждается приличным числом подобных страниц в индексе поисковой системы Яндекс:

22. Создаем карту сайта sitemap.xml с указанием всех страниц сайта и проверяем её на валидность (https://webmaster.yandex.ru/sitemaptest.xml). Если число страниц превышает 50 000, то потребуется создать несколько карт.

Саму карту рекомендуется загрузить непосредственно в панели Вебмастера Яндекса и Google и не указывать в файле robots.txt.

23. Всем внешним ссылкам прописываем открытие в новой вкладке с помощью target=”_blank”. Если требуется не допустить передачу статического веса по ряду ссылок, то скрываем их от сканирующего робота с помощью AJAX.

24. Открыть и проверить корректность сохраненной копии ряда ключевых страниц сайта. Обратить внимание на кодировку, дату сохраненной копии, полноту кода.

25. Требуется произвести закрытие от индексации служебных папок вида «cgi-bin», «wp-icnludes», «cache», «backup» в файле robots.txt.

26. Неинформативные файлы (вида *.swf) или пустые *.doc и *.pdf файлы требуется закрыть от индексации в файле robots.txt.

Если файлы *.doc и *.pdf являются полезными и несут ценную информацию — их не скрывают от индексации.

Дополнительные требования: для интернет-магазинов, сайтов с поиском, авторизацией

Для более сложных с технической точки зрения проектов с авторизацией, внутренним поиском сортировками товаров и т.д. появляется целый ряд дополнительных требований для корректной индексации:

27. Рекомендуется настроить rel=“canonical” для устранения дубликатов страниц и корректного учёта всех поведенческих и ссылочных метрик документов.

Данная рекомендация оправдана и для небольших/простых сайтов, но из-за определенных трудностей её реализации она часто остаётся лишь рекомендацией.

Вспомогательный материал: http://www.pixelplus.ru/samostoyatelno/otvety-na-voprosy/vnutrennyaya-optimizaciya/291384.html

28. Для улучшения индексации и уменьшения объема передаваемого «холостого» трафика необходимо настроить корректную работу сервера и возвращать 304 код ответа при запросе с If-Modified-Since, если документ не был изменен с последнего захода пользователя (поискового робота).

Внедрение данной рекомендации позволяет повысить полноту индексации сайта за счёт экономии времени краулера и отсутствия необходимости скачивать неизмененный документ повторно.

Необходимо также выдавать корректную дату модификации документа в заголовке Last-Modified совместно с 304 кодом ответа сервера на запрос с If-Modified-Since, если документ не менялся с указанной даты.

29. Требуется скрыть от индексации страницы различных сортировок, фильтраций, если на них не настроена оптимизация и ЧПУ для привлечения трафика по НЧ-запросам. Сами ссылки скрыть посредство AJAX.

30. Страницы авторизации, смены пароля, оформления заказа и т.д. требуется закрыть от индексации в файле robots.txt: «?basket&step=», «register=», «change_password=», «logout=».

31. Результаты поиска «search», «poisk» требуется закрыть от индексации в файле robots.txt.

32. Версию для печати вида: «_print», «version=print» и аналогичные, требуется закрыть от индексации в файле robots.txt.

33. Страницы совершения действия вида «?action=ADD2BASKET», «?action=BUY» требуется закрыть от индексации в файле robots.txt.

34. Разделы с дублированным контентом, скажем, RSS-фиды требуется закрыть от индексации в файле robots.txt: «feed», «rss», «wp-feed».

Важные замечания

А. В качестве альтернативы файла robots.txt можно использовать meta-тег name=“robots” со значениями полей «content=“noindex, follow“». Данное указание соблюдается поисковыми системами более чётко, но требует чуть более сложной настройки.

Б. Корректно настроенный атрибут rel=“canonical” для тега <link> помогает:

Существенно упросить настройку индексации сайта.Корректно учитывать и склеивать поведенческие и прочие метрики на дублирующих страницах, скажем, страницах с UTM-метками. Особенно, при проведении рекламных кампаний.

Данные преимущества позволяют рекомендовать его к использованию на сайтах.

(!) В поисковой системе Яндекс rel=“canonical” до сих пор не всегда отрабатывает корректно, что приводит к отсутствию «склейки» ряда поведенческих и ссылочных фактов для двух страниц. В данном случае надежней оказывается использование 301-редиректа.

В. Обратите внимание, что скрытие ряда разделов через файл robots.txt без скрытия ссылок на них, может приводить к некорректному распределению статического веса на сайте.

Г. Даже после детальной настройки индексации, рекомендуется производить регулярный мониторинг попадания дублей контента в индекс поисковых систем с использованием операторов цитатного поиска (кавычки) и оператора «site:».

Часто, полезным также оказывается оператор «title:» для поиска документов с одинаковыми тегами. Пример запроса приведен ниже (для случайного сайта):

Д. Довольно элегантным решением проблемы дублей с GET-параметрами в URL является использование только документов с ЧПУ на всём сайте, совместно с директивой «Disallow: *?*» в файле robots.txt.

Данная директива не допускает к индексации страницы с любыми GET-параметрами. Однако её использование можно рекомендовать только в случае отсутствия трафика на страницах с UTM-метками. Если же на вашем сайте имеется приличный объем трафика на страницах с UTM-метками или прочими необходимыми GET-параметрами, то рекомендуется настроить атрибут rel=“canonical” для тега <link>, а сами страницы открыть для индексации.

Выводы

Ошибки, допущенные при проведении технической оптимизации сайта, попадание дублей страниц в индекс, как и выпадение нужных страниц из базы поисковых систем — перечеркивает все усилия по пути к ТОПу.

Мы постарались собрать воедино большое число «мелких», но чрезвычайно значимых работ. Данный список SEO-специалист может использовать в своей повседневной работе как чек-лист, ведь грамотная техническая оптимизация сайта — является фундаментом продвижения.

Удачи в настройке проектов и продвижению сайтов на лидирующие позиции!

devaka.ru

Техническая оптимизация сайтат - методы проведения

Привет 👋 Друзья! Техническая оптимизация сайта на этапе on-page SEO обеспечит основу для успешного продвижения любого WEB-проекта. Я рекомендую уделить внимание нескольким факторам, влияющим на процесс SEO-продвижения. Об этом и поговорим сегодня!

Техническая оптимизация сайта

Проекты, которые предлагают высококачественный, удобный и адаптивный пользовательский интерфейс, способны привлечь к себе внимание представителей основной целевой аудитории. Безусловно, далеко не последнюю роль играет качество наполнения страниц, но без оптимизации технических параметров невозможно само функционирование сайта. В результате технические этапы on-page SEO следует рассматривать в качестве прочного фундамента, с которого начинается последовательное продвижение проекта путем осуществления различных рекламных мероприятий, наращивания ссылочной массы и выполнения контент-менеджмента.

Цели технической оптимизации сайта:
  1. Устранение различных SEO ошибок и сбоев.
  2. Повышение скорости загрузки страниц.
  3. Создание условий для on-page SEO.
  4. Улучшение пользовательского интерфейса.
  5. Внедрение качественной навигации.

Выполняя техническую оптимизацию сайта необходимо ориентироваться на современные требования настройки веб-страниц с учетом параметров цифрового маркетинга. Полезные рекомендации предоставляют также крупные поисковые системы, которые настаивают на повышении качества оптимизации в целях улучшения релевантности выдачи по ключевым словам. Каждый сайт нуждается в надежной основе, поэтому выполнение технического SEO рассматривается в качестве начального этапа продвижения.

На первом этапе, повышается производительность сайта, оптимизатор создаёт условия для улучшения показателей ранжирования. В списке поисковой выдачи хорошо оптимизированные веб-страницы окажутся на передовых позициях, тем самым гарантируя привлечение внимания будущих посетителей.

Технический аудит

Прежде чем приступить к оптимизации, необходимо определить техническое состояние сайта и понять причины по которым его продвижение затруднено или невозможно. Технический веб-аудит позволяет эти причины выявить. Процесс предполагает сбор и аналитическую обработку данных для последующего улучшения различных параметров работы страниц.

Задачи технического SEO-аудита:
  1. Анализ сайта на предмет сбоев и поломок разной степени сложности.
  2. Проверка состояния необходимого для поисковой индексации файла robots.txt.
  3. Оценка адаптивности работы на мобильных и десктопных устройствах.
  4. Поиск и устранение дублированного контента.
  5. Оптимизация изображений (масштабирование и добавление метатегов).
  6. Анализ текущей XML-карты, архитектуры и пользовательского интерфейса.
  7. Изучение внутренней структуры ссылок, качества перенаправления и перелинковки страниц.
  8. Оценка доступности и скорости загрузки отдельных страниц.
  9. Сканирование сайта для поиска возможных ошибок и слабых мест.
  10. Сбор аналитических и статистических данных для дальнейшего мониторинга сайта.

Результатом профессиональной технической настройки сайта является его ускоренная индексация. Страницы, которые обладают отменной конфигурацией, занимают более высокие позиции в списке поисковой выдачи. В свою очередь наличие даже незначительных ошибок может привести к серьезным проблемам. Своевременно выполненный аудит позволит определить технические детали, влияющие на последующее ранжирование и продвижение сайта.

Снятие штрафных санкций

Полученная в ходе технического аудита аналитика позволит разработать эффективную стратегию раскрутки. К основным услугам компаний, занимающихся технической оптимизацией, следует отнести восстановление позиций сайтов, которые попали под действие поисковых фильтров. Обычно санкции накладываются в результате снижения скорости загрузки, не уникальности контента, ссылочного продвижения, а также появления прочих неполадок, влияющих на доступность веб-страниц.

Выявление проблем на раннем этапе снизит риск попадания сайта под действие поисковых фильтров. Актуальные алгоритмы индексации наказывают сайты, имеющие плохое техническое оснащение. В результате проблемы с ранжированием имеют не только нарушители пользовательского соглашения, применяющие стратегию black SEO, но и использующие разрешенные методы оптимизации проекты, которые сталкиваются с техническими сбоями.

На этапе технической оптимизации необходимо:
  1. Устранить ошибки, которые спровоцировали попадание сайта под действие поисковых фильтров.
  2. Восстановить потерянные позиции в списке поисковой выдачи.
  3. Вернуть оптимальный уровень посещаемости сайта.
  4. Сохранить и улучшить репутацию путем повышения доверия со стороны поисковых систем.
  5. Снизить риск повторного наказания по причине проблем с индексаций отдельных страниц.

Обратиться за поддержкой к специалистам рекомендуется владельцам сайтов, которые попали в черные списки поисковых систем. Подобная проблема обычно сопровождается стремительным падением позиций в SERP по неизвестным на первый взгляд причинам. Своевременно выполненная техническая оптимизация сайта снизит риск появления проблем с поисковиками, а правильная настройка конфигурации веб-страниц обеспечит возвращение позиций в списке поисковой выдачи.

Анализ ссылок на сайте

Обратные ссылки играют важную роль в определении эффективности SEO. Технические ошибки, связанные с перелинковкой и ссылочной массой, обычно включают мелкие неурядицы, связанные с недоступностью ссылок. Ссылочный аудит позволяет получить полный обзор профиля обратных и внутренних ссылок, определяя параметры трафика и возможные проблемные места. Полная проверка даст возможность отыскать и устранить вредные или битые ссылки, тем самым обеспечивая возможность построения ссылочной массы, которая служит отправной точкой для эффективной стратегии оптимизации внешнего поиска за пределами продвигаемого веб-сайта.

Миграция сайта

В перечень услуг по технической оптимизации сайта, входит доработка страниц после переноса (миграции) сайта. Сама по себе процедуры считается чрезвычайно сложной, поскольку даже малейшие ошибки могут спровоцировать потерю данных, снижение скорости загрузки и возникновения серьезных сбоев.

Процесс переноса веб-сайта:
  1. Позволит получить преимущества SEO, которые ранее были недоступны из-за устаревших технологий.
  2. Существенно расширит возможности сайта за счет использования нового домена и сервера.
  3. Повысит эффективность органического поиска, обеспечив рост мобильного трафика.
  4. Гарантирует безопасный просмотр страниц путем внедрения HTTPS и защиты от DDOS-атак.
  5. Повысит экономию ресурсов в случае правильного выбора тарифных планов нового хостера.

Качественно выполненная миграции сайта имеет решающее значение для его сохранения производительности. Опытные специалисты могут гарантировать безопасный перенос с сохранением содержимого веб-страниц. Сама по себе миграция в интернет-среде считается не слишком распространенным явлением, однако развивающиеся веб-проекты в целях расширения бизнеса переходят часто на новые платформы, подключая безопасный просмотр (HTTPS), новые доменные имена и мощное серверное оборудование. Процесс миграции представляет собой источник множества потенциальных осложнений, которые могут помешать работе сайта и привести к снижению трафика, поэтому процесс следует доверить команде опытных технических специалистов по SEO.

Оптимизация изображений

Еще одним важным компонентом внутренней технической оптимизации считается подготовка изображений к продвижению сайта. Пользователи предпочитают посещать веб-ресурсы с запоминающимся, но ненавязчивым дизайном, поэтому в процессе SEO раскрутки следует уделить внимание визуальным эффектам. Уровень адаптивного пользовательского интерфейса ощутимо снижается, если изображения не оптимизированы должным образом. Масштабирование и атрибутирование улучшит дизайн, уменьшит скорость загрузки и повысит доступность сайта.

Оптимизация скорости загрузки страниц

Медленная загрузка веб-сайта провоцирует снижение посещаемости, поскольку представители аудитории не готовы ждать по несколько минут для получения доступа к искомой странице. Если сайт загружается дольше 10 секунд, потери трафика будут иметь внушительные негативные последствия. Увеличение скорости загрузки сайта улучшит эффективность органического поиска. Сейчас поисковые системы Google и Яндекс поощряют веб-сайты, которые быстро загружаются, особенно если речь идет о крупных виртуальных проектах, заточенных под просмотр на мобильных устройствах.

Повышение скорости загрузки позволит:
  1. Ускорить индексацию и улучшить коэффициент конверсии.
  2. Уменьшить частоту отказов, положительно влияя на уровень конверсии.
  3. Улучшить показатели, связанные с изучением сайта.
  4. Завоевать доверие построчных посетителей и поисковых роботов.

Профессиональная оптимизация скорости загрузки продвигаемого сайта требуется для получения его максимальной производительности. Дополнительно на этом этапе рекомендуется уделить внимание структурированию данных и перелинковке страниц. Подобные мероприятия не просто ускоряют работу сайта. Они положительно сказываются на оценке релевантности контента роботами поисковых систем. Хорошо структурированный сайт с адаптивным интерфейсом быстро загружается, тогда как разметка данных расширяет результаты поиска, приводя к увеличению видимости веб-страниц и существенному повышению скорости кликов.

Специалисты по SEO на этапе технической настройки сайта отталкиваются от полезных данных, полученных в результате анализа конкурентной среды. Эксперты уделяют внимание рекомендациям поисковых систем и отраслевым стандартам, позволяющим значительно улучшить технический профиль и стратегию раскрутки сайта.

Правильное выполнение технических настроек имеет решающее значение для сохранения производительности, поэтому поисковые системы во время индексации и ранжирования уделяют внимание исправности отдельных компонентов сайта. Только квалифицированное выполнение технической оптимизации сайта с последующим устранением любых серьезных ошибок и сбоев, сможет вывести сайт в ТОП 10 поисковых систем и привлечь целевых посетителей.

Обучение продвижению сайтов

Для тех кто хочет научиться выводить сайты в ТОП 10 поисковых систем Яндекс и Google, я организовал онлайн-уроки по SEO-оптимизации (смотри видео ниже). Все свои интернет-проекты я вывел на посещаемость более 1000 человек в сутки и могу научить этому Вас. Кому интересно обращайтесь!

На этом сегодня всё, всем удачи и до новых встреч!

hozyindachi.ru

Техническая оптимизация и доработки сайта

Техническая оптимизация сайта – это комплекс доработок технических аспектов сайта, главная цель которого устранение всех недочетов и оптимизация сайта для роботов поисковых систем.

Технические работы по сайту требуется проводить на самом первом этапе продвижения, даже предварительном. Для этого сначала проводиться технический аудит с целью обнаружения всех ошибок, которые затем устраняются специалистами. Если при аудите найдены все ошибки, и все они исправлены корректно, то такие работы достаточно провести единожды. Благодаря этому, сайт продвигать намного проще: загрузка работает быстро, сайт хорошо индексируется поисковыми системами, и нет никаких внешних препятствий.

Аспекты технической оптимизации сайта

Рассмотрим те моменты технической оптимизации сайта, которые необходимо оценить на корректность работы перед продвижением.

  1. Качественный хостинг и сервер. О критериях хорошего хостинга можно говорить много. Главное – чтобы он работал стабильно, и время ответа сервера было быстрым. Хорошо если у него будет «дружелюбная» поддержка и налаженная система бэкапов. Для больших сайтов, порталов или сайтов с большой посещаемостью важно постоянно мониторить нагрузку на сервер и стабильность его работы.
  2. Настройка  ответов сервера.  Во время загрузки страницы посылается запрос серверу, который отвечает кодом  статуса http и загружает или нет страницу. Основные статус коды:
    • 200 – страница существует и корректно обрабатывается сервером
    • 404 – страница не существует
    • 503 – сервер недоступен
    Особенно важно, чтобы ваша страница 404 ошибки отдавала код 404, а не 200. Проверить ответ сервера можно в Яндекс Вебмастере.
  3. Устранение дублей страниц. Это, пожалуй, самая глобальная техническая проблема, которая встречается на большинстве сайтов. Из-за дублей страниц появляется несколько копий одной и той же информации и поисковой робот не может определить, какая из них наиболее релевантна, поэтому понижает в выдаче все. Целую отдельную статью можно написать о том, как найти и устранить дубликаты. Система управления сайтом, на которой чаще всего встречается данная проблема, Joomla. На ней нужно постоянно смотреть, чтобы дубли не генерировались автоматически. Основные виды дубликатов:
    • Не настроенное главное зеркало: сайт доступен как по www так и без него
    • Главная страница доступна по таким адресам как http://site.ru/index.php или http://site.ru/index.html и пр.
    • Слэш в конце url адреса – нечеткие дубли
    • Большой и малый регистр в url-адресе
    Удаление дублей осуществляется посредством устранения источника их образования и настройки редиректов через файл .htaccess  или через php.
  4. Файлы robots.txt и sitemap.xml. Прописанные в данных файлах инструкции помогают поисковым роботам корректно индексировать сайт. Оба они должны находиться в корневой директории сайта. В файле robots.txt указывается, какие страницы и каким роботам индексировать не нужно, главное зеркало сайта и адрес xml карты, остальные инструкции используются редко. От индексации запрещаются обычно служебные разделы, поиск, страницы сортировки и пр.Файл sitemap.xml используется реже. В нем указываются страницы сайта, их последнее время редакции и частота обновления. В целом, если навигация на сайте организована хорошо, то в нем нет необходимости – поисковой робот и так найдет все страницы.
  5. Оптимизация скорости загрузки сайта. Время загрузки сайта становится все более важным показателем ранжирования. Если сайт будет грузиться долгое время, то пользователь просто закроет страницу и вернется в выдачу для продолжения поиска. Это увеличит показатель отказов на сайте и снизит поведенческие характеристики. Основные моменты оптимизации скорости загрузки сайта следующие:
    • Оптимизация графики. Смотрите на размер картинок перед загрузкой их на сайт. Чем они меньше, тем лучше. При этом качество должно сохраняться.
    • Скрипты на javascript и flash пока не совсем корректно обрабатываются поисковыми роботами и нагружают сайт, поэтому чем их меньше, тем лучше. Многие вещи сейчас можно реализовать посредством css3. Используйте приоритетно программирование на php, чем подключение плагинов и модулей (больше касается сайтов на системах управления wordpress и joomla).
    • Оптимизация css. С помощью сжатия кода css можно сократить объем загружаемых данных и ускорить их обработку.
    Очень хороший сервис по проверке скорости загрузки сайта и его отдельных страниц есть у google. Здесь вам выдаст критические ошибки и рекомендации, которые есть у google для оптимизации скорости загрузки.  Его же можно найти в google analytics.
  6. Оптимизация кода сайта. Этот пункт во многом перекликается с предыдущим, так как оптимизируя код, вы уменьшаете время загрузки сайта. К указанному выше также можно добавить кроссбраузерность кода и кроссплатформенность, а также его валидность и правильную кодировку. Проверить код на валидность можно с помощью сервиса validator.w3.org. Не ждите, что ошибок совсем не будет, так как не весь интернет еще понимает html5, но и слишком много их не должно быть.

Кроме перечисленных аспектов необходимо проверить также наличие битых ссылок на сайте, идентификаторов сессий в url и другую информацию. Найти все эти ошибки без специальных знаний, опыта или без изучения технической литературы будет затруднительно, а с исправлением всех ошибок дело еще сложнее. В нашей компании вы можете заказать технический аудит сайта и решение всех разрешимых проблем нашими специалистами. Услуга аудита предоставляется бесплатно в рамках продвижения сайта.

Звоните нам по телефонам или оставляйте заявку через форму на сайте!

Вернуться

Please enable JavaScript to view the comments powered by Disqus.

Статьи по теме

www.seo.kasper.by

Техническая оптимизация сайта! ТЗ или основные требования к сайту!

Как сделать сайт, готовый к продвижению? Основные технические критерии для успешной seo-оптимизации! Если у Вас уже есть сайт, то никогда не поздно проверить, найти ошибки и их исправить!

Структура сайта

Реализация логичной системы вложенности на сайте. Необходима реализация с учётом работы бизнеса. Это один из самых важных этапов, в котором закладывается фундамент. Переделывать — сложно и дорого.

Пример реализации

  1. Главная страница сайта
  2. Категория товара в интернет-магазине или раздел информационного сайта:

    domen.com/games/domen.com/sport/

  3. Подкатегории или подразделы:

    domen.com/games/tablehockey/domen.com/sport/football/

  4. Карточка товара или статья:

    Если есть уверенность, что выбранный раздел правильный и меняться не будет, то красиво организовать структуру и вложенность в ЧПУ согласно категориям \ разделам.

    domen.com/games/tablehockey/stiga-play-off/domen.com/sport/football/arshavin-pereshel-v-kuban/

    Если категории будут меняться, то вполне возможно лучше организовать структуру сайта так, чтобы конечные элементы (карточки товаров, статьи и т.д.) имели независимый адрес, тогда перемещение не будет за собой тянуть никаких сложностей.

    domen.com/stiga-play-off/domen.com/arshavin-pereshel-v-kuban/

  5. Теговые страницы, страницы брендов или вспомогательные и параллельные разделы.

    Обычно сайт должен иметь несколько параллельных веток.domen.com/brand/stiga/domen.com/tag/arshavin/

    Важно, чтобы эти категории, не плодили дублей, т.е. товары, страницы, которые бы выводились в этих разделах, не меняли свой адрес.

  6. Такая структура подразумевает, что каждая страница будет релевантна группе запросов, например:

И т.д.Но это уже отдельная тема, группировки и составления семантического ядра сайта.

ЧПУ

ЧПУ нужно использовать либо полностью название «категории», «бренда», либо общепринятые обозначения. Важно, чтобы ЧПУ были все в нижнем регистре. Пробелы заменять «-» (тире). Не надо в ЧПУ использовать коммерческие слова «купить», «цена» и т.д. Не надо, чтобы в ЧПУ повторялись слова в разных уровнях вложенности. Если это ЧПУ товаров или статей, то необязательно использовать все название, можно сделать несколько ключевых слов (но помнить про уникальность). Лучше использовать транслит или перевод (не кириллические обозначения).

О ЧПУ через htaccess можно прочитать — тут.

Ответы сервера

  1. Существующая страница должна отдавать ответ сервера — 200 ОК.
  2. Необходимо, чтобы несуществующие страницы отдавали – 404 ошибку.
  3. Настроить редиректы, страницы без слеша должны отдавать ответ 301 на страницы со слешем на конце.
  4. Настроить 301 редирект с www на «без www» или наоборот. Зависит от того, как больше нравится позиционировать сайт: www.domen.ru или domen.ru.
  5. Параметр Last-Modify должен или отсутствовать, или содержать реальное изменение информации на странице (обычно по тексту, содержанию).
  6. link-canonical — инструмент для того, чтобы сообщить поисковым сетям, что данная страница скорее носит «вспомогательный характер», а есть основная, каноническая. Вес всех вспомогательных суммируется и передается основной. Хорошо использовать для пагинации, сортировок и т.д.

Карта сайта

Все страницы сайта должны быть собраны в sitemap.xml (если страниц много и ссылки не помещаются в один файл, то можно разбить на несколько файлов по смыслу).

Страница сайта

Каждая страница должна иметь возможность для размещения и редактирования:

  1. Текст
  2. Заголовок h2
  3. Title
  4. Keywords
  5. Description
  6. Название для вывода в меню сайта
  7. ЧПУ (уникальный)
  8. Картинки

Должна быть сделана генерация мета-данных (данные по умолчанию), которая бы легко генерировалась. Например, чтобы у всех страниц было что-то типа:

Title: Грузоперевозки {по стране} {из региона} в {регион} {транспортная компания}Keywords: грузоперевозки {по стране} {из региона} в {регион} {транспортная компания}Description: Грузоперевозки {по стране} {из региона} в {регион} {транспортная компания}. Domen.ru – лучший сервис доставки грузов!

Генерация – это мета-теги по умолчанию, для каждой страницы введенные уникальные данные должны иметь приоритет.

Код сайта

  1. html код сайта не должен содержать стили и js-код (по возможности), все должно быть подключено через файлы, таблицы стилей. Вообще, чем короче, проще и валиднее код – тем лучше.
  2. Разметка заголовками h2-h6 должна быть только внутри зоны содержания текста, в остальном сайте должны использоваться обычные блочные элементы.
  3. Использовать schema.org и hcard — микроразметка поможет поисковым сетям хорошо понимать содержание Вашего сайта. Основное: контакты, хлебные крошки, фотографии. Если сайт подходит под тематику, то отзывы, рецепты и т.д.

Пагинация

Простой и удобный для пользователя способ разделить большой объем информации по страницам. Современные сайты часто используют подгрузку содержания по средствам AJAX, данный способ бывает удобен для пользователя, но затрудняет индексирование ресурса. Поэтому предпочтительнее использовать пагинацию, она может положительно сказаться и на поведенческие факторы (глубину просмотра). На страницах пагинации хорошо использовать мета-тег link-canonical.

Хлебные крошки

Необходима реализация хлебных крошек:

Главная >> Россия >> ФинляндияГлавная >> Россия Санкт-Петербург >> Россия МоскваГлавная >> Россия Санкт-Петербург >> Россия Москва >> 40DC Контейнер

Хлебные крошки должны использовать микроразметку – прочитать подробнее.

Перелинковка сайта

Реализовать перелинковку сайта (страниц, разделов). Т.е. реализовать что-то типа блока «Похожие направления», «Вам может быть интересно» и т.д. Цель — на каждую страницу должно вести (3-4 ссылки). Например, реализовать по принципу «кольца», когда страницы на одном уровне вложенности ссылаются на несколько соседних (по алфавиту или id).

Подробнее – тут.

Фавикон

Сайт должен иметь favicon (скорее всего уменьшенный логотип или его часть).

robots.txt

Сайт должен иметь robots.txt.

hreflang

Настроить метатег hreflang для мультиязычного сайта

Вместо вывода

Это основные пункты, есть ещё миллион мелочей для каждого конкретного случая, но если Вам кажется, что это список без этого неполный, то буду рад любым комментариям! Общий план оптимизации сайта я уже публиковал — тут.

web-optimizator.com


Prostoy-Site | Все права защищены © 2018 | Карта сайта