Как я могу извлечь все ссылки PDF на веб-сайте?


10

Это немного не по теме, но я надеюсь, что вы, ребята, поможете мне. Я нашел сайт, полный статей, которые мне нужны, но они смешаны с большим количеством бесполезных файлов (в основном, jpgs).

Я хотел бы знать, есть ли способ найти ( не загружать ) все PDF-файлы на сервере, чтобы составить список ссылок. По сути, я просто хотел бы отфильтровать все, что не является PDF, чтобы получить лучшее представление о том, что загружать, а что нет.


3
Возможно, вы сможете использовать DownThemAll для этой задачи. Это расширение Firefox, которое позволяет загружать файлы по фильтрам и многое другое. Я никогда не использовал его сам, поэтому я не смогу опубликовать полный урок, но кто-то может. Если вы более знакомы с этим расширением, пожалуйста, не стесняйтесь написать правильный ответ.
Glutanimate,

Ах, я только что увидел, что вы просто хотите отфильтровать ссылки, а не загружать их. Я не знаю, возможно ли это с расширением, которое я разместил. Но стоит попробовать!
Glutanimate,

Ответы:


15

обзор

Хорошо, вот и все. Это программное решение в виде скрипта:

#!/bin/bash

# NAME:         pdflinkextractor
# AUTHOR:       Glutanimate (http://askubuntu.com/users/81372/), 2013
# LICENSE:      GNU GPL v2
# DEPENDENCIES: wget lynx
# DESCRIPTION:  extracts PDF links from websites and dumps them to the stdout and as a textfile
#               only works for links pointing to files with the ".pdf" extension
#
# USAGE:        pdflinkextractor "www.website.com"

WEBSITE="$1"

echo "Getting link list..."

lynx -cache=0 -dump -listonly "$WEBSITE" | grep ".*\.pdf$" | awk '{print $2}' | tee pdflinks.txt

# OPTIONAL
#
# DOWNLOAD PDF FILES
#
#echo "Downloading..."    
#wget -P pdflinkextractor_files/ -i pdflinks.txt

Монтаж

Вам нужно будет иметь wgetи lynxустановить:

sudo apt-get install wget lynx

использование

Сценарий получит список всех .pdfфайлов на веб-сайте и выведет его на выход командной строки и в текстовый файл в рабочем каталоге. Если вы закомментируете «необязательную» wgetкоманду, скрипт продолжит загрузку всех файлов в новый каталог.

пример

$ ./pdflinkextractor http://www.pdfscripting.com/public/Free-Sample-PDF-Files-with-scripts.cfm
Getting link list...
http://www.pdfscripting.com/public/FreeStuff/PDFSamples/JSPopupCalendar.pdf
http://www.pdfscripting.com/public/FreeStuff/PDFSamples/ModifySubmit_Example.pdf
http://www.pdfscripting.com/public/FreeStuff/PDFSamples/DynamicEmail_XFAForm_V2.pdf
http://www.pdfscripting.com/public/FreeStuff/PDFSamples/AcquireMenuItemNames.pdf
http://www.pdfscripting.com/public/FreeStuff/PDFSamples/BouncingButton.pdf
http://www.pdfscripting.com/public/FreeStuff/PDFSamples/JavaScriptClock.pdf
http://www.pdfscripting.com/public/FreeStuff/PDFSamples/Matrix2DOperations.pdf
http://www.pdfscripting.com/public/FreeStuff/PDFSamples/RobotArm_3Ddemo2.pdf
http://www.pdfscripting.com/public/FreeStuff/PDFSamples/SimpleFormCalculations.pdf
http://www.pdfscripting.com/public/FreeStuff/PDFSamples/TheFlyv3_EN4Rdr.pdf
http://www.pdfscripting.com/public/FreeStuff/PDFSamples/ImExportAttachSample.pdf
http://www.pdfscripting.com/public/FreeStuff/PDFSamples/AcroForm_BasicToggle.pdf
http://www.pdfscripting.com/public/FreeStuff/PDFSamples/AcroForm_ToggleButton_Sample.pdf
http://www.pdfscripting.com/public/FreeStuff/PDFSamples/AcorXFA_BasicToggle.pdf
http://www.pdfscripting.com/public/FreeStuff/PDFSamples/ConditionalCalcScripts.pdf
Downloading...
--2013-12-24 13:31:25--  http://www.pdfscripting.com/public/FreeStuff/PDFSamples/JSPopupCalendar.pdf
Resolving www.pdfscripting.com (www.pdfscripting.com)... 74.200.211.194
Connecting to www.pdfscripting.com (www.pdfscripting.com)|74.200.211.194|:80... connected.
HTTP request sent, awaiting response... 200 OK
Length: 176008 (172K) [application/pdf]
Saving to: `/Downloads/pdflinkextractor_files/JSPopupCalendar.pdf'

100%[===========================================================================================================================================================================>] 176.008      120K/s   in 1,4s    

2013-12-24 13:31:29 (120 KB/s) - `/Downloads/pdflinkextractor_files/JSPopupCalendar.pdf' saved [176008/176008]

...

почему вы используете "$(pwd)/pdflinks.txt"вместо pdflinks.txt?
JFS

@JFSebastian Вы правы, это избыточно. Я изменил скрипт. Спасибо!
Glutanimate,

Работает отлично!
Крис Смит

6

простой фрагмент javascript может решить эту проблему: (ПРИМЕЧАНИЕ: я предполагаю, что все pdf файлы заканчиваются на .pdf в ссылке.)

откройте консоль JavaScript браузера, скопируйте следующий код и вставьте его в консоль js, готово!

//get all link elements
var link_elements = document.querySelectorAll(":link");

//extract out all uris.
var link_uris = [];
for (var i=0; i < link_elements.length; i++)
{
    //remove duplicated links
    if (link_elements[i].href in link_uris)
        continue;

    link_uris.push (link_elements[i].href);
}

//filter out all links containing ".pdf" string
var link_pdfs = link_uris.filter (function (lu) { return lu.indexOf (".pdf") != -1});

//print all pdf links
for (var i=0; i < link_pdfs.length; i++)
    console.log (link_pdfs[i]);

1
Для меня это возвращает слишком много. luФункции должно быть: lu.endsWith (".pdf") == 1, то , что у меня только PDF ссылки, не все ссылки с «* .pdf *» в них, это то , что я получил с кодом , как отвечал. FWIW.
13:05
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.