Чек-лист по внутренней оптимизации сайта: 18 required пунктов
Чтобы провести самостоятельный аудит сайта, следуйте перечисленным ниже пунктам.
В статье описаны основные моменты, которые должны быть проверены на сайте перед продвижением или запуском.
Техническая оптимизация
Любой анализ начинается с парсинга. Глубокий анализ сразу покажет проблемы: например, сколько страниц удалено, возможно, среди них есть важные страницы, собирающие трафик. Анализ парсером продемонстрирует, сколько страниц может быть проиндексировано, а какая доля URL закрыта неожиданным noindex или в файле robots.txt. Подробнее про инструменты парсинга: «Обзор ТОП-6 парсеров сайтов».
1. Проверка robots.txt
Традиционно начинаем с проверки robots.txt – файл с рекомендациями для поисковиков об индексировании содержимого. Правила файла могут быть учтены или проигнорированы роботами.
Что должно быть закрыто правилом Disallow:
Проверить закрытие от индексации страниц входа в CMS («/bitrix», «/login», «/admin», «/administrator», «/wp-admin»).
Закрытие страниц с дублированным контентом, rss, feed.
Что не нужно закрывать:
Весь сайт.
Часть сайта.
Отдельные страницы с контентом.
Карточки товаров.
Служебные страницы: Контакты, Доставка, Оплата, О нас.
Чем проверять:
Проверка валидности файла осуществляется в старой панели GSC (Crawl – robots.txt Tester). Здесь вы можете проверить любую страницу на закрытость или открытость для роботов.
Или проверить только что созданный свод правил на корректность.
Альтернативный инструмент для проверки файла есть и в панели Яндекса для вебмастеров (Инструменты – Анализ robots.txt).
Кроме возможности проверить каждую страницу на доступность для роботов, Яндекс позволяет просмотреть историю изменений файла в выпадающем списке «Версия robots.txt».
Дополнительный способ проверить URL на наличие запрещающих правил в файле – использование букмарклета.
Перетащите эту кнопку в закладки — [sc name=»13″]
Использовать его просто:
открываете в браузере (у нас Google Chrome) нужную страницу;
активируете букмарклет;
изучаете результат:
клик на «OK» откроет правила, заданные robots.txt.
2. Карта сайта
Карты обязательны для больших проектов. Рекомендуется настроить автообновляемую карту, куда будут записываться все новодобавленные URL.
Требования к xml-карте сайта:
Xml-карта содержит адреса по актуальному протоколу (http и https).
Xml-карта содержит страницы, отвечающие только 200 ОК.
Не содержит неканонические страницы.
Не содержит страниц, которые владелец сайта закрыл от индексации (тегами noindex, мета тегами noindex,заголовком http-ответа).
Заданы корректные заголовки lastmod и priority. Приоритетность сканирования становится бессмысленной, если у всех страниц указано 1. Одинаковая дата в lastmod на всех страницах также не будет полезной. Ведь она указывает, что все URL были обновлены в одно и то же время. На основе этих данных робот не сможет выделить страницы, которые нужно индексировать.
Дополнительным плюсом загрузки карты в GSC является контроль индексации. Например, ваша карта разбита на подкарты. Вы можете загрузить каждую подкарту отдельно и наблюдать ошибки и дату сканирования каждого отдельного URL.
На скриншоте показано состояние сканирования отдельной карты: ошибки, количество исключённых и проиндексированных URL.
3. Цепочки редиректов
Чаще всего на сайтах используются 301 (постоянное перенаправление) и 302 (временное перенаправление) редиректы. Подробная информация о редиректах есть в статье – «301, 302 или 404? Что применять и в каких случаях?».
Важно следить, чтобы URL, отдающие 301 и 302 коды, не находились в структуре сайта. Иногда на сайтах используются цепочки, состоящие из нескольких перенаправлений.
На скриншоте показано, что к конечному URL робот может добраться через 2 перенаправления.
Такая практика чревата расходом краулингового бюджета. И от этого она особо опасна для больших сайтов.
Чем проверять:
Найти адреса с 3** кодом поможет парсинг.
Например, Screaming Frog – вкладка «Response Codes» – «Redirection (3хх)».
4. Проверка наличия 404-й ошибки
Ошибка 404 должна возникать, только если пользователь неправильно ввёл URL. Страница ошибки оформляется в стилистике сайта и предлагает пользователю как можно больше вариантов для перехода на другие страницы. Тонкости оформления страницы ошибки описаны в нашей статье «Error 404 – что значит, как найти и исправить ошибку».
Проверьте наличие 404-й страницы в структуре сайта: если робот или пользователь при серфинге по сайту наткнулся на неработающую страницу, то с большей долей вероятности он покинет сайт.
При проверке наличия 404-й страницы, нужно обратить внимание на:
404-ая страница отдаёт 404-й код.
Страницы, которые должны быть проиндексированы, не отвечают 404-й ошибкой.
Проверить корректность кода ответа сервера нужно на всех типах страниц (главная, страница категории, карточка товара, страница статьи).
Чем проверять:
Любой парсер.
Панель Яндекса для вебмастеров. Ссылки – Внутренние ссылки – Запрещены к индексированию или не существуют.
Здесь вы увидите страницы, отдающие 404-ую ошибку, и их расположение, а также динамику прироста на сайте.
Сайт должен быть доступен по одному адресу. Дублирование на таком же домене, но с префиксом www, может негативно сказываться на оценке основного домена.
Проверка зеркал на доступность:
По двум протоколам сразу http и https.
С префиксом www и без него.
По его IP (сайт доступен и по названию домена https://site.com, и по IP-адресу 185.42.230.20).
Доступность домена с указанием его порта, например, https://site.com: 443/.
URL-адреса должны соответствовать следующим требованиям:
Все символы в нижнем регистре.
Отсутствуют URL длиной больше 100 символов.
Отсутствуют нижние подчёркивания в URL, пробелы, кавычки.
В адресах отсутствуют кириллические символы (для адресов на латинице).
Важно! Эта рекомендация важна для молодых сайтов, которые ранее не продвигались, или закрытых от индексации ресурсов. Если по адресам с такими ошибками идёт поисковый трафик, то не спешите переформировывать URL. Значительного прироста в ранжировании после внедрения ЧПУ не замечалось, а вот просадка позиций на некоторое время неминуема. Превращать обычные URL в ЧПУ стоит тогда, когда нечего терять.
В эпоху Mobile First indexing идеальная адаптивность под мобильные устройства обязательна для всех сайтов.
Что проверять:
Лучше проверить все страницы сайта вручную с мобильного. Тогда вы почувствуете себя на месте мобильного пользователя и сможете найти проблемные места в уголках сайта.
Но если речь идёт о большом магазине, то проверяйте страницы каждой категории и хотя бы по одной товарной карточке каждой категории.
Чем проверять:
Массовую проверку состояния мобильной версии можно доверить панели GSC. В ней проводится постоянный мониторинг сайта и корректности его отображения на мобильном.
Проверьте, сколько страниц видит Google и сколько Яндекс. Если число проиндексированных страниц в одной ПС значительно превосходит количество в другой, это уже может говорить о проблеме: либо санкции, либо технические ошибки, препятствующие индексированию части страниц.
Что проверять:
Проверьте наличие в индексе наиболее важных страниц.
Чем проверять:
Операторами inurl: и site: точечно проверьте наличие страниц в индексе.
Проверка URL в GSC помогает узнать, проиндексирована ли страница, и какие проблемы на пути индексации.
Допускать дублирование в пределах сайта – это собственноручное снижение рейтинга сайта.
Наиболее частые проблемы – это дублирование содержания главных метатегов и заголовков (title, description, h1, h2).
Чем проверять:
Любой обычный парсер снабжён опцией находить, показывать и экспортировать в отчёты дублирующийся контент.
2. Наличие пустых страниц
Пустые или с малым количеством контента страницы могут быть расценены поисковиками как низкокачественные. А наличие таких страниц на ресурсе может понижать общую оценку ресурса.
Чем проверять:
Яндекс.Вебмастер – «Индексирование» – «Страницы в поиске» – «Исключённые страницы»
Здесь, выбрав фильтр «Недостаточно качественные», вы увидите, какие страницы Яндекс посчитал недостойными находиться в его индексе. Убедитесь, что важные для привлечения трафика страницы не находятся в этом списке, и начинайте работать над наполнением и добавочной ценностью адресов. Как работать с такими страницами узнайте в статье «Страницы низкого качества или как понять, что твой сайт «не очень».
Screaming Frog – вкладка Word Count
Отсортировав по нарастанию, вы увидите страницы, которые либо нужно наполнять контентом, либо закрывать от индексации.
3. Оптимизация Title
Заголовок страницы, его содержание, оптимизация ключевыми словами напрямую влияют на ранжирование.
Что проверять:
Используется краткий и ёмкий заголовок.
Title отображает содержимое страницы.
Ближе к началу используются важные ключевые слова.
Title является уникальным в пределах сети.
Используются спецсимволы (emoji).
Длина заголовка в пределах 70 символов.
Чем проверять:
Screaming Frog – вкладка Pages titles. Содержит выпадающий список сортировок, может показать страницы, где заголовок дублируется, отсутствует либо превышает длину. Размер заголовка можно оставить дефолтным, а можно задать собственные параметры.
Плагин для браузера SeoMeta in 1 Click показывает размер и содержание title открытой страницы.