Программное обеспечение для загрузки всех изображений со всего веб-сайта

Я ищу программное обеспечение, которое будет рекурсивно сканировать веб-сайт, чтобы загружать все изображения со всего веб-сайта. (Не только с одной веб-страницы.)

Проиллюстрировать:

Если сайт есть, www.example.comто программа должна скачивать все изображения, которые она находит на www.example.com. Он также должен переходить по любым ссылкам, которые он находит, www.example.comи продолжать делать это, чтобы загрузить все изображения из www.example.com/*. Он должен категорически игнорировать любые ссылки, ведущие от www.example.com, но не такие ссылки, как images.example.com/picture.jpg.

Программа должна быть бесплатной, но не обязательно с открытым исходным кодом.

Программа должна работать в Windows.

Программное обеспечение для AmigaOS подходит — или вы предпочитаете Atari TOS? ;)
Должен ли он сканировать такие URL-адреса, как www.example.com/page.php?id=4875 или www.example.com/post.php?name=ibid?
@NicolasRaoul - Не уверен, что это такое. Я никогда не видел их на рассматриваемом сайте, поэтому я предполагаю, что нет. Единственный "?" модификаторы, которые я видел, обрезают изображения (которые я бы предпочел удалить, так как мне нужно полноразмерное изображение).

Ответы (4)

HTTrack — это бесплатная (GPL, свободное/бесплатное программное обеспечение) и простая в использовании утилита автономного браузера.

Для зеркального отображения только изображений необходимо правильно настроить правила сканирования.

Ограничьте внешнюю загрузку глубины и убедитесь, что у вас есть соответствующие фильтры изображений (Параметры > Правила сканирования). Следующее будет принимать любые найденные изображения, даже если они связаны с другими серверами:

 +*.gif +*.jpg +*.png +*.bmp  
Единственная проблема заключается в том, что все ссылки на изображения на сайте содержат строки запроса для обрезки и уменьшения изображений. Я хочу полноразмерные фотографии. Есть ли способ использовать httrack для игнорирования строк запроса при загрузке?

Приложение WFDownloader может загружать изображения во время сканирования веб-сайта. Он также соответствует другим вашим критериям, таким как бесплатность и возможность работы в Windows. Для этого вы используете его режим сканирования.

  1. Откройте приложение и перейдите в «Задачи» > «Добавить пакетную загрузку с помощью сборщика ссылок вручную».
  2. Введите URL-адрес, с которого вы хотите начать поиск, выберите «Режим сканирования» и нажмите «Далее».
  3. Выберите «Изображения» в качестве того, что вы хотите загрузить. Вы можете использовать различные фильтры, чтобы определить, какие страницы просматриваются или какие изображения извлекаются.
  4. Нажмите «Поиск».

Скачать их все , это надстройка для Firefox, которая позволяет вам загружать что угодно (вы можете фильтровать только изображения) с выбранной веб-страницы.

Чтобы процитировать OP: я ищу программное обеспечение, которое будет рекурсивно сканировать веб-сайт, чтобы загружать все изображения со всего веб-сайта. (Не только с одной веб-страницы .)

ImgDownloader может сделать эту работу очень эффективно. Я лично использовал его для некоторых задач, и он работал нормально для меня.