Я наткнулся на эту статью в моих новостях SEO сегодня. Кажется, подразумевается, что вы можете использовать Noindex:
директивы в дополнение к стандартным Disallow:
директивам в robots.txt .
Disallow: /page-one.html
Noindex: /page-two.html
Похоже, что это помешает поисковым системам сканировать первую страницу и не позволит им проиндексировать вторую страницу.
Эта директива robots.txt поддерживается Google и другими поисковыми системами? Это работает? Это задокументировано?
disallow
Google перестает обнаруживать ссылки на родительской и дочерней страницах, если таковые существуют. В то время как noindex
просто останавливает список страниц, он не останавливает обнаружение, в то время как запретить делает.
nofollow
работает для мета-тегов. Было бы неплохо узнать, относится ли это к robots.txt .
<a rel="no-follow">
тоже самое. Я не вижу причин, почему это будет рассматриваться иначе. Очевидно, что это не официально, и Джон Мюллер даже не рекомендовал использовать его в robots.txt, но кроме его твита мне не удалось найти много информации об этом.
Noindex
директиву в robots.txt
файлах как ошибку.