Я наткнулся на эту статью в моих новостях SEO сегодня. Кажется, подразумевается, что вы можете использовать Noindex:директивы в дополнение к стандартным Disallow:директивам в robots.txt .
Disallow: /page-one.html
Noindex: /page-two.html
Похоже, что это помешает поисковым системам сканировать первую страницу и не позволит им проиндексировать вторую страницу.
Эта директива robots.txt поддерживается Google и другими поисковыми системами? Это работает? Это задокументировано?
disallowGoogle перестает обнаруживать ссылки на родительской и дочерней страницах, если таковые существуют. В то время как noindexпросто останавливает список страниц, он не останавливает обнаружение, в то время как запретить делает.
nofollowработает для мета-тегов. Было бы неплохо узнать, относится ли это к robots.txt .
<a rel="no-follow">тоже самое. Я не вижу причин, почему это будет рассматриваться иначе. Очевидно, что это не официально, и Джон Мюллер даже не рекомендовал использовать его в robots.txt, но кроме его твита мне не удалось найти много информации об этом.
Noindexдирективу в robots.txtфайлах как ошибку.