icon map.png г. Москва, БЦ "Кожевники", ул. Дербеневская 20

icon_time.png Часы работы: Пн.-Пт: с 10-00 до 19:00

 

Техническая оптимизация сайта. Что важно знать новичкам?

Техническая оптимизация сайта – это комплекс мер по программной доработке элементов, модулей, php или html-кода, CSS-стилей интернет-ресурса с целью улучшения видимости в поисковых системах, а также упрощения сценариев взаимодействия с конечной целевой аудиторией.
05.03.2020 Автор: Чудаев Алексей Время на чтение: 9 мин.

Содержание

    Для конечного потребителя сайт является ничем иным, как удобной web-картинкой с возможность заказать обратный звонок, оформить корзину в интернет-магазине, купить билет в театр или на концерт. Но чтобы обеспечить эту картинку и быть всегда в ТОПе поисковых систем, требует очень хорошо поработать с техническими настройками ресурса.

    Техническая оптимизация сайта – это комплекс мер по программной доработке элементов, модулей, php или html-кода, CSS-стилей интернет-ресурса с целью улучшения видимости в поисковых системах, а также упрощения сценариев взаимодействия с конечной целевой аудиторией. 

    Задачи, которые будут перечислены ниже, потребуют участия программиста при согласованной коммуникации с SEO-оптимизатором. Если вы не понимаете, как произвести технические настройки оптимизации, лучше обратиться к специалистам.

    Основные требования для SEO оптимизации

    Код страниц не должен содержать модулей, скриптов, CSS-стилей, а также возможного мусора в виде забытых счетчиков, их дубликатов. Страница должна открываться просто и быстро, поэтому очень актуальными становятся технологии «Турбо-сайт» в поисковой системе Яндекс и «АМР» в Google. Суть очень простая – код страниц вашего продвигаемого сайта загружается на сервера поисковых машин и при переходе с запроса, открывается именно загруженная копия. Также есть требования к указанным ниже техническим настройкам

    Файл robots.txt

    Это корневой файл в формате .txt, который служит для простой, но очень важной задачи – разрешать или запрещать ботам индексации той или иной директории сайта


    У нас был случай, когда клиент заказал технический аудит перед запуском SEO-продвижения по причине радикального падения трафика с 14500 переходов месяц до 1209 переходов. Оказалось, что озлобленный оптимизатор, который был уволен, месяцев ранее, просто закрыл сайт в файле Robots.txt от индексации вот таким правилом


    Разрешающие команды Действие
    User-agent: Применение всех последующих команд ко всем ПС
    Disallow Запрет от индексации всех поисковых систем
    Allow Разрешение индексации
    Host: Директива для Яндекса о том, какое зеркало считать главным
    Sitemap: Указание URL-пути к карте сайта в формате .xml

    С марта 2018-го года Яндекс официально отказался от директивы Hosts https://webmaster.yandex.ru/blog/301-y-redirekt-polnostyu-zamenil-direktivu-host

    Что требуется закрывать от индексации:

    • Страницы с GET-параметрами. Особенно в интернет-магазинах, где есть различные сортировки, поиск, фильтры, подборщики, расчет доставок и прочее.
    • Пользовательские персональные данные. Разумеется, если информация о Ваших клиентах утечет в сеть, а точнее просто проиндексируется в поисковиках, это быстро разлетится по рынку и отразится на имидже компании.
    • Дубли страниц
    • Системные каталоги и страницы
    • Корзины
    • Идентификаторы сессий
    • Страницы, которые могут содержать ограниченную информацию для определенного круга лиц, например, презентации, прайсы. Обычно такие страницы видят люди, переходящие по прямым ссылкам.

     Примеры стандартных Robots.txt

    1. Для Битрикс
    prom-bitrix_8.jpg
    1. Для WordPress
    robots1.jpg
    1. Для Joomla

    Sitemap — карта сайта

    Карта сайта полностью оправдывает свое название, потому что служит некой навигацией по Вашему сайту, оглавлением большой книги. Без этого файла роботы поисковых систем обходили бы ресурс очень долго, создавая дополнительные нагрузки и издержки. Но вопрос решается проще – создается карта в формате www.вашсайт/sitemap.xml и сообщается роботу о ее существовании, это крайне важно для технической оптимизации.


    Помните, что карта должна содержать в себе не более 50 000 URL, для картинок создавайте отдельную карту сайта. Sitemap.HTML и Sitemap.XML – не одна и та же карта, xml – наиболее важный файл


    5 требований Яндекса к Sitemap.xml

    • Используйте кодировку UTF-8. Кириллические URL робот Яндекса распознает как в закодированном виде, так и в оригинале.
    • Максимальное количество ссылок — 50 000. Вы можете разделить Sitemap на несколько отдельных файлов и указать их в файле индекса Sitemap.
    • Максимальный размер файла в несжатом виде — 50 МБ.
    • Указывайте ссылки на страницы только того домена, на котором будет расположен файл.
    • Разместите файл на том же домене, что и сайт, для которого он составлен.
    • При обращении к файлу сервер должен возвращать HTTP-код 200.

    https://yandex.ru/support/webmaster/controlling-robot/sitemap.html?lang=uk


    Рекомендуем настраивать приоритет и частоту обновления страниц для устранения излишней нагрузки на сервер.


    Редиректы 301 и 302

    Редирект – это серверная команда, которая позволяет перенаправить пользователя с одной страницы сайта на другую. Как правило, это делается для того, чтобы:

    • Перенаправить пользователя с битой 404-й страницы на рабочую
    • Перенаправить пользователя на более релевантную услугу или товар
    • Произвести склейку зеркал с www и без www
    • Осуществить безболезненный переезд нового сайта на старый.
    • Переезд со старого домена на новый

    При каких обстоятельствах рекомендуется настраивать редирект 302:

    • Когда товар временно отсутствует и пользователя направляют на похожий товар
    • Когда производятся технические работы или техническая оптимизация разделов


    302 редирект – это временная команда на перенаправление пользователя на другой раздел или страницу, таким образом поисковым машинам дается сигнал, что в период до 10 дней текущая страница будет недоступна. Помните, что при команде 302 вес на новую страницу не передается и обе страницы будут участвовать в Поиске


    Со слов Джона Мюллера, если 302 редирект будет стоять более 6-12 месяцев, Google, то поисковые боты переведут его в статус 301.

    Как настроить редиректы

    Вариантов несколько, и мы приведем наиболее популярные:

    1. Корневой файл .htaccess:
    2. Административная панель сайта. В WP, к примеру, есть большое количество бесплатных плагинов, позволяющих безопасно настроить перенаправления. В Битрикс также есть такие инструменты, но ужу платные. В каждой системе есть соответствующая инфраструктура за исключением авторских самописных решений.
    3. Технический файл web.config
    4. Через PHP-код

    Основные коды

    300 — Multiple Choices (несколько вариантов на выбор);

    301 — Moved Permanently (перемещено навсегда);

    302 — Temporary Redirect (временный редирект);

    303 — See Other (затребованный ресурс можно найти по др. адресу);

    304 — Not Modified (содержимое не изменялось - это могут быть рисунки, таблицы стилей и т. п.);

    305 — Use Proxy (доступ должен осуществляться через прокси);

    306 — Unused (не используется).


    Ни в коем случае не допускайте тройных и более редиректов, когда каждый URL ссылается друг на друга по цепочке. Это создает гигантские нагрузки на сервер и замедляет время его ответа. Если у вас не стоит VDS, то лучше этого не делать. На моей памяти у нас был интернет-магазин, где .htaccess: dtcbk 600 МБ и там редиректорные цепочки накладывались на другие цепочки в плагине Webasyst.


    Для того, чтобы проверять корректность ваших редиректов, рекомендуем использовать сервис http://www.bertal.ru/ 


    Настройка видов URL-страницы

    Крайне важно не допускать ситуаций, когда главная, категорийная или посадочная страница открывается в двух различных вариантах – со слешом на конце и без слеша. Это порождает технические дубли, который поисковые системные могут воспринять как копии страниц.

    Тоже самое относится к окончаниям с GET-параметрами на конце и с .html/.php. Для устранения данных проблем рекомендуем настроить канонические URL с предельным приоритетов на корректный URL. Делается системно для всех шаблонов страниц путем добавления тега rel=canonical.

    Таким образом, вы даете понять поисковым ботам, что среди множества похожих URL, выбрать нужно один, который появится в индексе. 

    Ошибки сайта

    Нужно внимательно проверить, что все страницы отдают код ответа 200, что все ок. В противном случае надо искать ошибки на стороне административной панели. К примеру, некоторые, интегрированные в ядро сайта плагины перестают работать или по ошибке удаляются, что влечет за собой сбой структуры URL или даже целых разделов. При 500-х ошибках требуется проверка работы серверов на стороне хостинг-провайдеров.

    Помните, сайт не должно «колбасить», техническая часть – это тихая гавань. Если все будет спокойно без лишних дублей, битых ссылок, проработанным robots и sitemap, сайт заживет счастливой трафиковой жизнью, отправляя вам лиды на почту.


     




    Автор: Чудаев Алексей

    Рейтинг автора:   

    Еженедельный обозреватель DigitalRiff

    Более 10 лет опыта работы в интернет маркетинге на стороне крупных сетевых агентств. Более 3-х лет на стороне заказчика на позиции руководителя отдела маркетинга. Владеет фундаментальными знаниями в области классического маркетинга, а также практик по разработке интернет-стратегий и внедрению.

    Закажите Авторский SEO аудит сайта

    Подпишитесь на нашу рассылку и будьте в курсе самых важных SEO лайфхаков

    Оцените материал


    5 отзывов

    Эта информация оказалась полезна?




    Читайте далее

    Оставьте заявку в этой форме и наш звонок не заставит долго ждать!

    Мы на связи!

    Звоните за бесплатной консультацией по телефону

    +7 (495) 015-08-51
    Также готовы ответить на все Ваши вопросы по электронной почте info@digitalriff.ru
    Мы гарантируем конфинденциальность, высокий профессионализм и отличные цены