Я использую следующий файл robots.txt для сайта: Цель - разрешить googlebot и bingbot доступ к сайту, кроме страницы, /bedven/bedrijf/*
и запретить всем остальным роботам сканировать сайт.
User-agent: googlebot
Disallow: /bedven/bedrijf/*
Crawl-delay: 10
User-agent: google
Disallow: /bedven/bedrijf/*
Crawl-delay: 10
User-agent: bingbot
Disallow: /bedven/bedrijf/*
Crawl-delay: 10
User-agent: bing
Disallow: /bedven/bedrijf/*
Crawl-delay: 10
User-agent: *
Disallow: /
Последнее правило User-agent: * Disallow: /
запрещает всем ботам сканировать все страницы сайта?
robots.txt
любом случае
robots.txt
, или, по крайней мере, Disallow: /
правилу. Если ваш личный веб-сайт врезается в землю из-за того, что бот-программист никогда не считал, что сервер может быть Raspberry Pi на неправильном конце соединения 256 кбит, такое полное исключение полезно.