Как Wget войти на этот сайт


0

Я пытаюсь зайти на сайт с помощью следующей команды, но что-то не хватает:

wget --no-check-certificate --save-cookies cookies.txt --keep-session-cookies --post-data "loginId=Email%40gmail.com&password=PASSWORD&submit-btn" "https://login.aliexpress.com/"

Что не так с этой командой?

%40 для @

Я почти уверен, что ему не хватает токена и реферера, но все, что кажется слишком сложным для воспроизведения.

Есть ли в браузере плагин, куда вы можете добавить список URL и загрузить страницу каждого URL в этом списке?

Необходимо сохранить куки / сеанс браузера (я войду из браузера)

Спасибо!


1
Почему вы считаете, что можно делать то, что вы пытаетесь сделать?
Ramhound

Я уже делал это несколько лет назад для многих подобных сайтов, но чего-то не хватает в моих пост-данных ... токена или реферера? Я не могу вспомнить.
Steiner K

Ответы:


1

Поскольку вопрос помечен как "curl", я предполагаю, что команда curl также приемлема. Делать эти вещи методом проб и ошибок может быть утомительно, поэтому я рекомендую открыть страницу входа в Firefox, затем открыть инструменты разработчика, перейти на вкладку «Сеть», нажать «Сохранять журналы» на вкладке «Сеть», а затем нажать кнопку входа. кнопка на странице. Все сетевые доступы будут отображаться один за другим, и вы можете щелкнуть правой кнопкой мыши любой из них и выбрать «Копировать» - & gt; Скопируйте как cURL. Вы получите команду curl в вашем буфере вставки, которая будет воспроизводить точно такой же запрос, который был выполнен Firefox. (Если ваша версия curl немного старше, возможно, придется скорректировать команды curl.)

Chrome также обладает этими функциями, с той лишь разницей (в текущих стабильных версиях), что «Persist Logs» называется «Сохранять журнал».


Спасибо, я проверю вариант cURL. Но я бы очень хотел, чтобы wget сделал это: \
Steiner K
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.