Я ищу программное обеспечение, которое будет рекурсивно сканировать веб-сайт, чтобы загружать все изображения со всего веб-сайта. (Не только с одной веб-страницы.)
Проиллюстрировать:
Если сайт есть, www.example.com
то программа должна скачивать все изображения, которые она находит на www.example.com
. Он также должен переходить по любым ссылкам, которые он находит, www.example.com
и продолжать делать это, чтобы загрузить все изображения из www.example.com/*
. Он должен категорически игнорировать любые ссылки, ведущие от www.example.com
, но не такие ссылки, как images.example.com/picture.jpg
.
Программа должна быть бесплатной, но не обязательно с открытым исходным кодом.
Программа должна работать в Windows.
HTTrack — это бесплатная (GPL, свободное/бесплатное программное обеспечение) и простая в использовании утилита автономного браузера.
Для зеркального отображения только изображений необходимо правильно настроить правила сканирования.
Ограничьте внешнюю загрузку глубины и убедитесь, что у вас есть соответствующие фильтры изображений (Параметры > Правила сканирования). Следующее будет принимать любые найденные изображения, даже если они связаны с другими серверами:
+*.gif +*.jpg +*.png +*.bmp
Приложение WFDownloader может загружать изображения во время сканирования веб-сайта. Он также соответствует другим вашим критериям, таким как бесплатность и возможность работы в Windows. Для этого вы используете его режим сканирования.
Скачать их все , это надстройка для Firefox, которая позволяет вам загружать что угодно (вы можете фильтровать только изображения) с выбранной веб-страницы.
ImgDownloader может сделать эту работу очень эффективно. Я лично использовал его для некоторых задач, и он работал нормально для меня.
Иззи
Николя Рауль
пользователь22923