Обновление : работает следующее, печатает <meta name="robots" content="noindex,follow" />
в разделе заголовка все страницы, к которым осуществляется доступ, начиная с пути comment
. Это нужно для того, чтобы обойти тот факт, что страница, подобная comment / 3, внутренне несет в качестве аргументов node / nid, как указывалось выше в jmarkel.
<?php
function metarobots_comment_help() {
$url_components = explode('/', request_uri());
if ($url_components[1] == 'comment') {
$elements = array(
'#tag' => 'meta',
'#attributes' => array(
'name' => 'robots',
'content' => 'noindex,follow',
),
);
drupal_add_html_head($elements, 'robots');
}
}
С помощью полезного комментария к функции arg .
Надеемся, что в конечном итоге это будет решено модулем мета-тегов - есть запрос на добавление функции , но пока не ясно, хочет ли автор модуля поддержать это.
[Мой предыдущий комментарий] Я просто хотел добавить, что использование robots.txt не является ответом - как вы уже заметили, ссылки продолжают появляться в результатах поиска, несмотря на использование Disallow: /comment
. Это ожидаемо, поскольку robots.txt говорит боту не сканировать эти страницы, но не говорит Google не индексировать его. Как объяснено в SEOmoz Robots.txt и Meta Robots Best Practices для поисковой оптимизации :
В большинстве случаев мета-роботы с параметрами «noindex, follow» должны использоваться как способ ограничения сканирования или индексации.
Блокировать с помощью Robots.txt - Это говорит механизмам не сканировать данный URL, но говорит им, что они могут сохранить страницу в индексе и отобразить ее в результатах.
Блокировать с помощью Meta NoIndex - это говорит механизмам, которые они могут посетить, но им не разрешено отображать URL в результатах. (Это рекомендуемый метод) Итак, метатег noindex, который вы ищете, действительно то, что вам нужно.
robots.txt
файле?