У меня есть подкаталог, который я хотел бы скрыть от поисковых роботов поисковых систем.
Один из способов сделать это - использовать robots.txt
в корневом каталоге сервера (стандартный способ). Однако любой, кто знает URL-адрес веб-сайта и имеет некоторые базовые знания в Интернете, может получить доступ к содержимому robots.txt и определить запрещенные каталоги.
Я думал, как избежать этого, но я не уверен, сработает ли.
Позвольте X
быть именем подкаталога, который я хочу исключить. Один из способов , чтобы остановить веб - Ползуны индексации X
каталога и в то же самое время , чтобы сделать более трудным для кого - то , чтобы определить X
каталог из корневого robots.txt
, чтобы добавить robots.txt
в X
каталог вместо корневого каталога.
Если я последую этому решению, у меня возникнут следующие вопросы:
- Найдут ли веб-сканеры
robots.txt
в подкаталоге? (учитывая, чтоrobots.txt
уже существует и в корневом каталоге) Если
robots.txt
находится вX
подкаталоге, то я должен использовать относительные или абсолютные пути ?:User-agent: * Disallow: /X/
или
User-agent: * Disallow: /