По сути, я хочу сканировать весь сайт с помощью Wget, но он мне нужен, чтобы НИКОГДА не загружать другие ресурсы (например, изображения, CSS, JS и т. Д.). Я хочу только файлы HTML.
Поиски в Google совершенно бесполезны.
Вот команда, которую я попробовал:
wget --limit-rate=200k --no-clobber --convert-links --random-wait -r -E -e robots=off -U "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/32.0.1700.102 Safari/537.36" -A html --domain=www.example.com http://www.example.com
Наш сайт представляет собой гибридный плоский PHP и CMS. Таким образом, HTML "файлы" может быть /path/to/page, /path/to/page/, /path/to/page.phpили /path/to/page.html.
Я даже включил, -R js,cssно он по-прежнему загружает файлы, затем отклоняет их (бессмысленная трата пропускной способности, загрузки процессора и сервера!).
Length: 558 [text/css]файлы, которые мне не нужны. Если бы я мог остановить запрос, если заголовок не вернулся text/html, я был бы в восторге.