Вопросы с тегом «wget»

GNU Wget - это бесплатный программный пакет для извлечения файлов с использованием HTTP, HTTPS и FTP, наиболее широко используемых интернет-протоколов. Это неинтерактивный инструмент командной строки, поэтому его легко вызывать из сценариев, заданий Cron, терминалов без поддержки X Window System (X11) и т. Д.

2
Инструмент командной строки Linux для загрузки файлов по HTTP как multipart / form-data?
Я вижу, что у wget есть --post-fileопция, но на man-странице написано Wget в настоящее время не поддерживает multipart / form-data для передачи данных POST; только приложение / x-www-form-urlencoded. Только один из --post-dataи --post-fileдолжен быть указан. Есть ли аналогичный способ загрузки файлов в multipart / form-data?
25 http  wget  upload 

1
Почему wget выдает ошибку при выполнении с sudo, но работает нормально без?
Я попробовал следующую команду: $ wget -q --tries=10 --timeout=20 --spider http://google.com (Из этого поста . Я хочу проверить свое интернет-соединение в bash.) Я получаю следующий вывод: Spider mode enabled. Check if remote file exists. --2015-09-28 09:55:50-- http://google.com/ Connecting to 127.0.0.1:3128... connected. Proxy request sent, awaiting response... 302 Found Location: http://www.google.de/?gfe_rd=cr&ei=k_IIVreaN-yH8Qfe1Yu4CA …
21 bash  sudo  wget 

3
Загрузите ВСЕ папки, вложенные папки и файлы с помощью Wget
Я использовал Wget и столкнулся с проблемой. У меня есть сайт, на котором есть несколько папок и подпапок. Мне нужно скачать все содержимое в каждой папке и подпапке. Я пробовал несколько методов, используя Wget, и когда я проверяю завершение, все, что я вижу в папках, это «индексный» файл. Я могу …
21 wget 

4
Как мне установить Wget для Windows?
Я скачал Wget отсюда и получил файл с именем wget-latest.tar.gz22-Sep-2009. Я сохранил его в одну из папок на моем D:диске и разархивировал. Я прочитал READ MEфайл, но не нашел там никакой информации о том, как его установить. Поскольку Installфайла не было , я предположил, что разархивирование wget.zipв ранее созданную папку …

2
Постоянная повторная попытка возобновления загрузки с помощью curl
Я на Mac и у меня есть список файлов, которые я хотел бы скачать с FTP-сервера. Соединение немного глючит, поэтому я хочу, чтобы оно повторилось и возобновилось, если соединение разорвано. Я знаю, что могу сделать это с помощью wget, но, к сожалению, Mac OS X не поставляется с wget. Я …
17 mac  unix  download  wget  curl 


3
Экранирование строк запроса с помощью wget --mirror
Я использую wget --mirror --html-extension --convert-linksдля зеркалирования сайта, но я получаю много имен файлов в формате post.php?id=#.html. Когда я пытаюсь просмотреть их в браузере, происходит сбой, потому что браузер игнорирует строку запроса при загрузке файла. Есть ли способ заменить ?символ в именах файлов чем-то другим? Ответ --restrict-file-names=windowsсработал правильно. В сочетании …
15 linux  wget  mirroring 

3
Рекурсивный эквивалент загрузки (`wget -r`) для Firefox?
У меня есть веб-сайт, и я хочу загрузить все страницы / ссылки на этом веб-сайте. Я хочу сделать wget -rпо этому URL. Ни одна из ссылок не выходит за пределы этого конкретного каталога, поэтому я не беспокоюсь о загрузке всего Интернета. Оказывается, нужные мне страницы находятся за защищенным паролем разделом …

3
Wget для FTP, используя пароль, содержащий @
Я пытаюсь получить некоторые файлы с моего FTP-сервера из командной строки. Я использую wget для загрузки всей папки сразу. Команда: wget -m ftp://username:password@ftp.hostname.com:/path/to/folder Но проблема в том, что мой пароль содержит символ «@». Следовательно, команда становится wget -m ftp://username:foo@bar@ftp.hostname.com:/.. из-за чего, wget пытается восстановить bar@ftp.hostname.com в качестве хоста, что он …
15 ftp  wget 

1
Как я могу удаленно получать файлы с перенаправленных URL-адресов из терминала?
Я хочу получить архив с этой библиотекой python из терминала. https://github.com/simplegeo/python-oauth2/downloads Однако я не могу просто позвонить wget https://github.com/simplegeo/python-oauth2/tarball/master потому что это возвращает веб-страницу. Как мне получить этот ресурс из терминала?

2
Как я могу использовать Wget для загрузки больших файлов?
Я использую Linux Mint 15 Cinnamon, работающий от 8GB Pendrive. Я хочу получить ISO для «Linux Mint 14« Nadia »KDE». Я пытался использовать wgetв терминале. Вот именно то, что я напечатал: wget http://mirror.ufs.ac.za/linuxmint/stable/14/linuxmint-14-kde-dvd-64bit.iso после того, как он загрузился до 30% (примерно через 2 часа), я был разочарован, увидев, что он …
14 linux  linux-mint  wget 

2
Как сканировать, используя wget для загрузки ТОЛЬКО файлов HTML (игнорировать изображения, css, js)
По сути, я хочу сканировать весь сайт с помощью Wget, но он мне нужен, чтобы НИКОГДА не загружать другие ресурсы (например, изображения, CSS, JS и т. Д.). Я хочу только файлы HTML. Поиски в Google совершенно бесполезны. Вот команда, которую я попробовал: wget --limit-rate=200k --no-clobber --convert-links --random-wait -r -E -e …
14 wget  web-crawler 

4
wget -o записывает пустые файлы при неудаче
Если я напишу wget «нет такого адреса» -o «test.html», он сначала создаст test.html, а в случае сбоя оставит его пустым. Однако, если не использовать -o, он будет ждать, если загрузка удастся, и только после этого он запишет файл. Я бы хотел, чтобы последнее поведение также применялось к -о, возможно ли …
14 wget 

3
Как использовать файлы cookie Firefox с Wget?
wget --load-cookies загрузит файлы cookie в виде «текстового файла в формате, который изначально использовался в файле cookies.txt Netscape». Тем не менее, Firefox хранит свои куки в SQLite база данных. Есть ли способ извлечь «файл cookies.txt Netscape» из Firefox cookies.sqlite файл?
13 firefox  wget  cookies 

4
Использование Wget для рекурсивного сканирования сайта и загрузки изображений
Как вы указываете wget рекурсивно сканировать веб-сайт и загружать только определенные типы изображений? Я попытался использовать это для сканирования сайта и загрузки только изображений в формате JPEG: wget --no-parent --wait=10 --limit-rate=100K --recursive --accept=jpg,jpeg --no-directories http://somedomain/images/page1.html Однако, несмотря на то, что page1.html содержит сотни ссылок на подстраницы, которые сами имеют прямые …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.