Ответы:
Вы можете использовать wget
команду, чтобы загрузить страницу и прочитать ее в переменной как:
content=$(wget google.com -q -O -)
echo $content
Мы используем -O
вариант, wget
который позволяет нам указать имя файла, в который wget
выгружается содержимое страницы. Мы указываем -
выводить дамп на стандартный вывод и собирать его в переменную content
. Вы можете добавить -q
тихую опцию, чтобы отключить вывод wget.
Для этого можно использовать команду curl, а также:
content=$(curl -L google.com)
echo $content
Нам нужно использовать эту -L
опцию, поскольку запрашиваемая страница могла быть перемещена. В этом случае нам нужно получить страницу из нового места. Опция -L
или --location
помогает нам в этом.
src
атрибут правильного элемента, а затем загрузить эту страницу. Если вы устанавливаете tq , эта команда должна это сделать:curl -s http://ww1.watchop.io/manga2/read/one-piece/1/4 | tq -j -a src "#imgholder a img" | xargs wget
convert_links = on
с -O-
опцией. Выдает ошибку -k can be used together with -O only if outputting to a regular file.
. Ожидается?
Есть много способов получить страницу из командной строки ... но это также зависит от того, хотите ли вы исходный код или саму страницу:
Если вам нужен исходный код:
с завитком:
curl $url
с wget:
wget -O - $url
но если вы хотите получить то, что видите в браузере, вам может пригодиться lynx:
lynx -dump $url
Я думаю, вы можете найти так много решений этой маленькой проблемы, возможно, вам стоит прочитать все страницы руководства по этим командам. И не забудьте заменить $url
на свой URL :)
Удачи :)
Есть wget
команда или curl
.
Теперь вы можете использовать файл, который вы загрузили с помощью wget. Или вы можете обработать поток с помощью curl.
Ресурсы :
content=`wget -O - $url`
Если у вас установлен LWP , он предоставляет двоичный файл с именем « GET ».
$ GET http://example.com <! DOCTYPE HTML PUBLIC "- // W3C // DTD HTML 4.01 Transitional // EN"> <HTML> <HEAD> <META http-Equiv = "Content-Type" content = "text / html; charset = utf-8"> <TITLE> Пример веб-страницы </TITLE> </ HEAD> <Тело> <p> Вы попали на эту веб-страницу, набрав & quot; example.com & quot ;, & Quot; example.net & Quot;, & Quot; example.org & Quot или "example.edu" в ваш веб-браузер. </p> <p> Эти доменные имена зарезервированы для использования в документации и недоступны для регистрации. См. <a href="http://www.rfc-editor.org/rfc/rfc2606.txt"> RFC 2606 </a>, раздел 3. </p> </ BODY> </ HTML>
wget -O-
, curl
И lynx -source
ведут себя аналогичным образом .
Вы можете использовать curl
или wget
для получения необработанных данных, или вы можете использовать, w3m -dump
чтобы иметь красивое текстовое представление веб-страницы.
$ foo=$(w3m -dump http://www.example.com/); echo $foo
You have reached this web page by typing "example.com", "example.net","example.org" or "example.edu" into your web browser. These domain names are reserved for use in documentation and are not available for registration. See RFC 2606, Section 3.