Как rel = «next» и rel = «prev» помогают в SEO, если используются для нумерации страниц?


9

Как rel = "next" и rel = "prev" помогают в SEO, если используются для нумерации страниц? Это действительно требуется?

т.е. представьте, что вы на странице 2:

<link rel="prev" href="http://www.example.com/article-part1.html">
<link rel="next" href="http://www.example.com/article-part3.html">

Ответы:


6

Нумерация страниц с rel = «next» и rel = «prev»

Так же, как rel = ”canonical” является сильной подсказкой для дублированного контента, теперь вы можете использовать элементы HTML-ссылок rel = ”next” и rel = ”prev”, чтобы указать связь между URL-адресами компонентов в разбивке на страницы. По всему Интернету постраничная серия контента может принимать различные формы - это может быть статья, разделенная на несколько компонентных страниц, или категория продукта с элементами, распределенными по нескольким страницам, или ветка форума, разделенная на последовательность URL-адресов. Теперь, если вы решите включить разметку rel = ”next” и rel = ”prev” на страницах компонентов в серии, вы дадите Google сильный совет.

Источник: блогспот Google


Это обязательно? Нет. Должны ли вы сделать это? Да, это уменьшит штраф за «повторяющиеся страницы», потому что он может видеть, что это следующая / предыдущая страница текущей страницы. Это указывает на связь между страницами (следовательно, rel ).


2

Я бы сказал, что если вы разделите длинную страницу на маленькие куски (возможно, для большего дохода от рекламы), которая фактически должна была быть одной страницей, то использование атрибутов prev / next дает четкий сигнал поисковым системам о главной странице, так что поисковые системы могут показывать главную страницу в поисковой выдаче и придавать меньшую значимость кускам.

Что касается дублирующего контента, мы всегда должны стремиться к сокращению дублирующегося контента, и предыдущая / следующая не относится к дублирующемуся контенту. Либо мы должны добавить rel = canonical, либо полностью заблокировать дубликаты страниц через Robots.txt или исключение meta noindex.


0

AFAIK, это поможет вам избежать только повторяющихся проблем с контентом, потому что страницы с нумерацией страниц имеют одинаковые заголовок и описания, чтобы избежать такого поведения, Google вводит эти теги. Вместо того, чтобы вручную применять эти теги, я обычно блокирую страницы в файле ROBOT.txt, чтобы избежать дублирования, и это самый простой метод по сравнению с методом rel, потому что вам нужно упоминать вручную везде, и эти теги не нужны, если вы блокируете страницы, разбитые на страницы в ROBOT.txt.


1
Не самая лучшая идея блокировать страницы в вашем файле robots.txt. Вы получите больше страниц в дополнительном индексе, в то время как Google будет показывать ваши страницы в поисковой выдаче с текстом типа «пусто из-за robots.txt этого сайта» вместо описания.
Мариан Попович
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.