Скачать все картинки со всего сайта

Я говорю о 1000 фотографиях, формат примерно такой (не настоящий сайт!) travelpics.com/page1-index.html, затем то же самое и страницы 2, 3, 100 и т. д.

Я использую Firefox, и у меня есть imagehostgrabber, который даже бесполезен для одной страницы, потому что этот человек использует разные хосты, такие как imagebox, которые по какой-то причине не загружаются моим расширением FF. Раньше у меня был downthemall, который, я думаю, также загружал imagebox.

Но это не относится к делу. Просто говорю, что на то, чтобы по отдельности щелкнуть эти картинки, уходит вечность.

Я слышал о hTTrack, но также слышал, что он очень медленный, а также сохраняет весь веб-сайт вместе, а не изображения по отдельности.

Возможно, вы заметили, что в качестве ответов вы получаете более или менее «однострочники со ссылкой». Скорее всего, это связано с тем, как сформулирован ваш вопрос. Не могли бы вы отредактировать его и сделать ваши требования более очевидными, например, используя маркеры, объясняя (или ссылаясь на), что означает «imagebox», назовите предельную цену и т. д.? Руководство см. в разделе Что требуется, чтобы вопрос содержал «достаточно информации»? Заранее спасибо!
Формат картинок не тот travelpics.com/page1-index.html. Пожалуйста, отредактируйте и скажите, какие фотографии.

Ответы (4)

Используйте WinHTTTrack вместе с инструментом управления файлами, таким как Total Commander .

  • Кого волнует, если это медленно? Это намного быстрее, чем то, что вы делаете сейчас. Пусть работает ночь.
  • Кого волнует, что остальная часть веб-сайта также записана на ваш диск? Вы можете выбрать файлы изображений из этой загрузки. Обратите внимание, что программное обеспечение все равно должно загружать html-файлы , чтобы анализировать их и переходить по ссылкам на изображения. Кроме того, основную часть загружаемого файла составляют изображения, а не html-страницы.

С помощью WinHTTrack укажите, что он должен переходить по ссылкам на другие веб-сайты (+ любые настройки, которые вам нравятся).
После загрузки сайта все файлы будут находиться в одном дереве каталогов. Найдите файлы *.jpg (или любой другой формат имени) с помощью Total Commander (по умолчанию все уровни), выберите Feed to listbox , затем выберите все файлы на этой панели и переместите их в нужную папку назначения.

Затем удалите (остальную часть) загруженного каталога.

Вы можете посмотреть на дополнение, которое позволит вам бесконечно прокручивать пронумерованные страницы, такие как автопейджер , и соединить его с автоматическим загрузчиком изображений, как вы использовали.

Вы можете попробовать Snagit, такая функция была в Snagit 10, я не понимаю, почему ее не было бы в текущей версии Snagit 12 . У него есть 15-дневная пробная версия, если вам это нужно ненадолго.

Я всегда использовал опцию Grabber в IDM для загрузки всех файлов с веб-страницы. Это быстро, и вы можете определить, насколько глубоко вы хотите искать: https://www.premiuminfo.org/download-multiple-files-with-idm-using-grabber/

Если вы ищете бесплатную версию, вы можете посмотреть некоторые варианты по этой ссылке ниже. Я не пробовал их, поэтому не могу судить об их функциональности. https://www.raymond.cc/blog/how-to-download-all-files-from-a-folder-on-a-website-or-ftp/