Пагинация страниц долгое время была темой горячих дискуссий в SEO-сообществе. Со временем, лучшие практики для её создания эволюционировали и теперь у нас есть довольно понятные определения. Эта статья объясняет лучшие практики создания SEO-пагинации.
Показать, что у категории есть пагинация
Когда поисковик сканирует первую страницу категории, ему нужно знать, что у неё есть пагинация. Длительное время единственным способом узнать, что у страницы есть пагинация было найти ссылки «следующая» или «предыдущая страница». Этот вопрос решили, предоставив добавление элементов link
с атрибутом rel="next"
и rel="prev"
в head
страницы.
Эта инструкция поддерживается Гуглом. Яндекс не учитывает rel="next"
и rel="prev"
и по завлению представителя «в ближайшем времени учитывать не будет». Он распознает порядок страниц пагинации исключительно своими эвристическими алгоритмами.
Долгое время в SEO-сообществе были дискуссии о том, как сочетать это с rel="canonical"
. Должна ли страница 2 и выше иметь каноническую ссылку на страницу 1 или на саму себя? Идея заключалась в том, что в основном нужно, чтобы посетители попали из поиска на первую страницу категории. Эта страница обычно наиболее актуальна для большинства пользователей.
Гугл высказал свою позицию однозначно: каждая страница пагинации должна канонизировать на саму себя, то есть /page/2/
должна иметь каноническую ссылку, указывающую на /page/2/
.
Представитель Яндекса, в свою очередь, порекомендовал делать каноническую ссылку на первую страницу у пагинаций интернет-магазинов. Он аргументирует это тем, что каноническая ссылка передает ссылочный вес, а самая релевантная страница пагинации — первая. Для текстовых материалов, разбитых на несколько частей, по его словам, канонические не обязательны.
Оптимальным решением для поддержки обоих поисковиков будет последовать рекомендации Гугла — поставить каноническую ссылку страницы на саму себя. Таким образом, Яндекс исключит страницы, как если бы стояла каноническая на первую, но все рекомендации Гугла выполняются.
Должна ли страница 2 и выше быть в результатах поиска?
Блокировка страниц пагинации в robots.txt не является оптимальным решением. Такая блокировка аналогична действию метатега noindex, nofollow
. Таким образом, если страница заблокирована в robots.txt, поисковики не будут переходить по ссылкам на ней, и может замедлиться индексирование.
Долгое время оптимизаторы считали, что будет хорошей идеей добавить метатег noindex, follow
ко второй и выше страницам пагинации. Это должно было убрать страницу 2 и выше из поисковой выдачи. Идея заключалась в том, что поисковик по-прежнему будет переходить по всем ссылкам на странице, поэтому все страницы будут по-прежнему хорошо индексироваться.
Однако в конце 2017 года Гугл заявили, что долгосрочный noindex, follow
на странице приведет к тому, что они не будут переходить по ссылкам на этой странице. Это означает, что добавление noindex, follow
на страницу 2 и далее может привести к тому, что статьи перестанут получать внутренние ссылки, в которых они нуждаются.
Из инструкций для вебмастеров известно, что Яндекс следует инструкциям тега noindex, follow
. Однако лучшим вариантом будет не ставить этот тег. Таким образом, пагинация будет давать страницам внутренние ссылки, учитываемые Гуглом, а страницы 2 и выше исключат из индекса Яндекса как недостаточно качественные. Яндекс исключит их по аналогичной причине, если будет стоять noindex, follow
, но получаем дополнительный плюс для Гугла.
Раздражающие побочные эффекты
Таким образом, не стоит запрещать к индексации страницу 2 и выше. Однако у этого есть раздражающий побочный эффект — Google Search Console может начать давать вам предупреждения. В частности, консоль может предупредить вас о дубликатах заголовков и описаний. По словам представителя Гугла, Джона Мюллера, вы можете смело игнорировать эти предупреждения:
Yep, that's fine. It's useful to get feedback on duplicate titles & descriptions if you accidentally use them on totally separate pages, but for paginated series, it's kinda normal & expected to use the same.
— 🍌 John 🍌 (@JohnMu) March 13, 2018
— «@JohnMu, вы соглашаетесь с тем, что люди могут безопасно игнорировать предупреждения о дубликатах meta description в Google Search Console для страниц пагинации?»
— «Да, всё в порядке. Полезно получить обратную связь по дубликатам тайтлов и описаний, если вы случайно использовали их на совершенно разных страницах, но для страниц пагинации это нормально и ожидается, что они будут использоваться такие же самые»
Скорее всего, со временем Гугл перестанет показывать эти предупреждения для страниц пагинации в Google Search Console.
Яндекс также будет сообщать в Вебмастере о том, что страницы пагинации исключены как недостаточно качественные. Важность этих сообщений я уточнил у поддержки Яндекса:
— «Здравствуйте, если на сайте много недостаточно качественных страниц, повлияет ли это на позиции нормальных (других) страниц сайта? Например, если у пагинации категорий не поставить каноническую на первую и noindex на вторую и выше страницы»
— «Если сайт в целом не будет признан некачественным, то не повлияет»
Другими словами, эти сообщения в Вебмастере также можно безопасно игнорировать.
Чеклист — как правильно внедрить пагинацию
- Добавить на каждую страницу пагинации
rel="next"
иrel="prev"
. Например, первая страница пагинации — «/page/1/» должна содержать тег<link rel="next" href="https://example.com/page/2/" />
, а вторая — теги<link rel="prev" href="https://example.com/page/1/" />
и<link rel="next" href="https://example.com/page/3/" />
- Не блокировать страницы пагинации в robots.txt
- Не использовать на страницах пагинации метатег
<meta name="robots" content="noindex, follow">
- Использовать каноническую ссылку на саму страницу. Например, у страницы
/page/2/
внутри<head>
должен присутствовать тег<link rel="canonical" href="https://example.com/page/2/" />