Как скачать сайт целиком себе на компьютер? Наверное у каждого была ситуация, когда он задавал себе такой вопрос. Чаще всего это необходимо, когда мы хотим почитать какой-то интересный ресурс там, где у нас есть компьютер, но нет интернета, например, на работе или в путешествии.
Под Windows существует несколько неплохих программ, которые позволяют эффективно сохранить САЙТ на жёсткий диск, но они, обычно, платные. Что же может нам предложить бесплатный Linux? (Тут вы можете прочитать о том, как сохранить отдельную страницу)
О чём пойдет речь?
- 1. Как скачать сайт целиком при помощи WebHTTrack?
- 2. Как скачать вебсайт целиком в консоли?
- 3. Как закачать сайт целиком в Windows?
1. Как скачать сайт целиком при помощи WebHTTrack?
А Linux предлагает нам для этого прекрасную бесплатную программу, которая называется WebHTTrack Website Copier. Установить программу мы можем через Synaptic, введя в окно поиска слово «webhttrack» или установить её через терминал командой:
Программы и сервисы для скачивания видео с любого сайта
sudo apt — get install webhttrack
Попутно установится ещё одна программа, которая является спутником WebHTTrack Website Copier и представляет из себя менеджер скачанных сайтов. Вам не нужно будет постоянно лезть в папку со скачанными сайтами и искать индексные страницы. Достаточно будет запустить Browse Websites Mirrored by WebHTTrack и в открывшемся браузере вы увидите список всех скачанных вами сайтов.
Что нужно сделать, чтобы скачать хороший веб проект полностью в Linux при помощи WebHTTrack Website Copier? Заходим в меню программ, в раздел ИНТЕРНЕТ, и запускам программу.
После того как вы запустите программу из меню, у вас откроется страница в браузере. Именно через веб интерфейс предоставляются все настройки программы. Можно ничего не настраивать, просто в строке «Имя нового проекта» написать название проекта, который вы будете закачивать и ниже указать путь к той папке, в которую будут закачиваться файлы.
После нажмите кнопку «Далее» и появившейся форме впишите адрес сайта, который вы планируете сохранить:
После этого нажмите кнопку «Вперёд» и дальше «Начать». Ну вот, процесс пошёл, закачка вебсайта целиком на компьютер началась!
Вот таким способом загрузить любой web ресурс в Linux можно просто и главное бесплатно! Но можно сделать всё это одной командой при помощи консольной программы!
2. Как скачать вебсайт целиком в консоли?
Есть такая, старая словно мир, консольная программа wget, которая обычно стоит по умолчанию во всех OS Linux. Всё можно сделать всего одной командой:
Как скачать сайт целиком с картинками из CSS и шрифтами
Источник: prostolinux.ru
Как выкачать весь сайт?
Я хочу скачать весь определенный сайт, вместо того чтобы использовать Настройки — Сохранить страницу как, тем самым сохраняя по одной странице, это долго, а мне нужно скачать весь сайт.
Как это сделать?
- Вопрос задан более трёх лет назад
- 31005 просмотров
1 комментарий
Средний 1 комментарий
Решения вопроса 0
Ответы на вопрос 3
wget -r -k -l 7 -p -E -nc http://site.com/
Ответ написан более трёх лет назад
Нравится 9 3 комментария
всё верно , только эта команда работает в linux , поясните в ответе это
ink, отнюдь. и в *BSD работает. И в Windows, достаточно скачать UnxUtils. В MacOS X — не совру, но скорее всего, есть родная.
latush, про это я не знал .. сорри
https://sitecoder.blogspot.com
Чтобы скачать сайт целиком с помощью wget нужно выполнить команду:
wget -r -k -l 7 -p -E -nc http://site.com/
После выполнения данной команды в директорию site.com будет загружена локальная копия сайта site.com. Чтобы открыть главную страницу сайта нужно открыть файл index.html.
Рассмотрим используемые параметры:
-r — указывает на то, что нужно рекурсивно переходить по ссылкам на сайте, чтобы скачивать страницы.
-k — используется для того, чтобы wget преобразовал все ссылки в скаченных файлах таким образом, чтобы по ним можно было переходить на локальном компьютере (в автономном режиме).
-p — указывает на то, что нужно загрузить все файлы, которые требуются для отображения страниц (изображения, css и т.д.).
-l — определяет максимальную глубину вложенности страниц, которые wget должен скачать (по умолчанию значение равно 5, в примере мы установили 7). В большинстве случаев сайты имеют страницы с большой степенью вложенности и wget может просто «закопаться», скачивая новые страницы. Чтобы этого не произошло можно использовать параметр -l.
-E — добавлять к загруженным файлам расширение .html.
-nc — при использовании данного параметра существующие файлы не будут перезаписаны. Это удобно, когда нужно продолжить загрузку сайта, прерванную в предыдущий раз.
Источник: qna.habr.com
HTTrack Website Copier
HTTrack является свободным программным обеспечением (GPL) оффлайн браузер утилита, позволяя загружать (копию) веб-сайт из Интернета на локальный каталог, строительство рекурсивно все каталоги, получая HTML, изображения и другие файлы с сервера на устройство.
HTTrack устраивает относительная ссылка-структуру оригинального сайта. Просто откройте страницу «зеркальной» сайта в адресной строке браузера, и вы можете просматривать сайт от ссылки к ссылке, как если бы вы читаете его в Интернете.
HTTrack может также обновить существующий зеркальный сайт, и возобновлять прерванные загрузки.
(Это Android-версия популярного веб-сайта ксероксы.)
Последнее обновление
20 мая 2017 г.
Безопасность данных
В этом разделе разработчики могут указать, как приложения собирают и используют данные. Подробнее о безопасности данных…
Нет информации.
Оценки и отзывы
Оценки и отзывы проверены info_outline
arrow_forward
Оценки и отзывы проверены info_outline
phone_android Телефон
tablet_android Планшет
laptop Chromebook
2,8 тыс. отзыва
more_vert
- Пожаловаться
- Показать историю отзывов
21 ноября 2022 г.
Отличная программа! Единственный минус — скачанный сайт открывается только в UC browser. Opera не открывает, пишет «невозможно открыть файл», а других браузеров в выпадающем меню не предлагается, хотя установлены еще Chrom и Yandex. Скорее всего, это из-за Андроид 11. Иногда скачивает весь сайт полностью, хотя ссылка дана на конкретную книгу.
Источник: play.google.com