Я хочу скачать весь сайт (с под-сайтами). Есть ли какой-нибудь инструмент для этого?
--convert-links
в wget) не будут показывать сайты, которые открываются только путем отправки формы, среди прочего.
Я хочу скачать весь сайт (с под-сайтами). Есть ли какой-нибудь инструмент для этого?
--convert-links
в wget) не будут показывать сайты, которые открываются только путем отправки формы, среди прочего.
Ответы:
Попробуйте пример 10 здесь :
wget --mirror -p --convert-links -P ./LOCAL-DIR WEBSITE-URL
–mirror
: включить опции, подходящие для зеркалирования.
-p
: скачать все файлы, которые необходимы для правильного отображения заданной HTML-страницы.
--convert-links
: после загрузки преобразуйте ссылки в документе для локального просмотра.
-P ./LOCAL-DIR
: сохранить все файлы и каталоги в указанный каталог.--wait=seconds
аргумент, если хотите быть более дружелюбным к сайту; он будет ждать указанное количество секунд между поисками.
httrack - это инструмент, который вы ищете.
HTTrack позволяет вам загружать сайт World Wide Web из Интернета в локальный каталог, рекурсивно собирая все каталоги, передавая HTML, изображения и другие файлы с сервера на ваш компьютер. HTTrack организует относительную структуру ссылок исходного сайта.
Поскольку wget
вы можете загрузить весь веб-сайт, вы должны использовать -r
переключатель для рекурсивной загрузки. Например,
wget -r http://www.google.com
WEBHTTRACK WEBITE COPIER - это удобный инструмент для загрузки целого веб-сайта на жесткий диск для просмотра в автономном режиме. Запустите центр программного обеспечения Ubuntu и введите «webhttrack website copier» без кавычек в поле поиска. выберите и загрузите его из центра программного обеспечения в вашу систему. Запустите webHTTrack либо из лаучера, либо из меню «Пуск», оттуда вы сможете начать пользоваться этим замечательным инструментом для загрузки вашего сайта.
Я не знаю о поддоменах, то есть о подсайтах, но wget можно использовать для получения полного сайта. Посмотрите на этот вопрос суперпользователя . Это говорит о том, что вы можете использовать -D domain1.com,domain2.com
для загрузки разных доменов в один скрипт. Я думаю, что вы можете использовать эту опцию для загрузки поддоменов, т.е.-D site1.somesite.com,site2.somesite.com
Я использую Burp - инструмент spider гораздо более интеллектуален, чем wget, и его можно настроить так, чтобы при необходимости избегать секций. Сам Burp Suite - это мощный набор инструментов, помогающий в тестировании, но инструмент-паук очень эффективен.
Вы можете скачать всю команду сайта:
wget -r -l 0 website
Пример :
wget -r -l 0 http://google.com
Если скорость имеет значение (а благополучие сервера - нет), вы можете попробовать puf , который работает как wget, но может загружать несколько страниц параллельно. Это, однако, не готовый продукт, не поддерживается и ужасно без документов. Тем не менее, для загрузки веб-сайта с большим количеством мелких файлов, это может быть хорошим вариантом.