Мой веб-сайт DoS'едируется веб-сайтами Google. Google может индексировать мой сайт, но иногда он запрашивает тег-облако на моем сайте быстрее, чем мой веб-сервер может дать результаты, из-за чего у моего веб-сервера заканчиваются ресурсы.
Как я могу ограничить доступ к своему веб-серверу таким образом, чтобы на обычных посетителей это не влияло?
robots.txt не вариант, потому что он заблокирует весь сайт от индексации.
iptables -m recent
Это сложно, потому что на некоторых страницах есть много изображений или других файлов данных, и на них тоже есть «последние» триггеры (обычно мой агрегатор RSS, загрузка изображений и каналов).
iptables -m limit
имеет тот же недостаток, и, кроме того, я не мог быть избирательным по IP-адресу источника.
Как я могу ограничить посетителей, которые вызывают слишком высокую нагрузку на мой сервер?
Я использую apache2 на сервере Ubuntu в виртуальной машине VirtualBox.