У меня есть веб-сайт, и я хочу загрузить все страницы / ссылки на этом веб-сайте. Я хочу сделать wget -r
по этому URL. Ни одна из ссылок не выходит за пределы этого конкретного каталога, поэтому я не беспокоюсь о загрузке всего Интернета.
Оказывается, нужные мне страницы находятся за защищенным паролем разделом сайта. Хотя я мог бы использовать wget для ручного согласования файлов cookie, мне было бы намного проще просто «войти» из браузера и использовать какой-нибудь плагин firefox для рекурсивной загрузки всего.
Есть расширение или что-то, что позволит мне сделать это? Многие расширения фокусируются на получении медиа / картинок со страницы (хе-хе-хе), но меня интересует весь контент - HTML и все.
Предложения?
Благодарность!
редактировать
DownThemAll кажется классным предложением. Может ли это сделать рекурсивную загрузку? Как, например, загрузить все ссылки на странице, а затем загрузить все ссылки, содержащиеся на каждой из этих страниц, и т. Д.? Чтобы я в основном отражал все дерево каталогов по ссылкам? Вроде как -r
вариант wget
?