По сути, я хочу сканировать весь сайт с помощью Wget, но он мне нужен, чтобы НИКОГДА не загружать другие ресурсы (например, изображения, CSS, JS и т. Д.). Я хочу только файлы HTML.
Поиски в Google совершенно бесполезны.
Вот команда, которую я попробовал:
wget --limit-rate=200k --no-clobber --convert-links --random-wait -r -E -e robots=off -U "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/32.0.1700.102 Safari/537.36" -A html --domain=www.example.com http://www.example.com
Наш сайт представляет собой гибридный плоский PHP и CMS. Таким образом, HTML "файлы" может быть /path/to/page
, /path/to/page/
, /path/to/page.php
или /path/to/page.html
.
Я даже включил, -R js,css
но он по-прежнему загружает файлы, затем отклоняет их (бессмысленная трата пропускной способности, загрузки процессора и сервера!).
Length: 558 [text/css]
файлы, которые мне не нужны. Если бы я мог остановить запрос, если заголовок не вернулся text/html
, я был бы в восторге.