Программа для скачивания текущей страницы. Как просмотреть то, что мы скачали

Занимаясь различными способами заработка в интернете, например, нередко требуется скопировать одностраничные сайты.

Зачем создавать лендинги, когда их можно позаимствовать? Сделать это не сложно, тем более уже созданы специальные программы для этого.

Как скопировать любой сайт? Сначала нужно скачать его на компьютер, а потом перенести на хостинг, предварительно внеся изменения (например, изменив ссылки).

Всего несколько минут уходит на это, если использовать Httrack website copier. Это бесплатная утилита, у которой есть русская версия.

Копирование сайта целиком

У Httrack website copier есть много аналогов, в большинстве своем они платные (например, Offline Explorer). Платить не надо, функционала этой программы хватает.

Скачивайте её с официального сайта (httrack), учитывая версию своей операционной системы.

Устанавливается она как любая другая программа, а после запуска нужно проделать следующие действия:

  1. Создавайте новый проект, имя указывайте произвольное. Категорию можно оставить пустой. Выбирайте папку, куда сохранятся данные и жмите далее:

  1. Дальше выбираете тип операции, оставляйте без изменения загрузку сайта и прописывайте адрес ресурса:

  1. На предыдущем шаге, перед нажатием «Далее», необходимо открыть «Задать параметры». Там открывайте вкладку с фильтрами, чтобы избавиться от весомых и ненужных файлов:

  1. Также зайдите на вкладку с ограничениями, чтобы указать, насколько далеко от указанной страницы нужно загружать сайт. Если это одностраничный сайт, настройки не трогайте:

  1. Если хотите, чтобы сайт загрузился максимально быстро, установите флажки на вкладке «Линки», как это показано на изображении:

  1. Последняя дополнительная настройка это выбор способа сохранения файлов. Выбирайте структуру сайта на вкладке «Структура»:

  1. Когда все параметры настроены, можно жать кнопку «ОК» и возвращаться к продолжению загрузки. Всё, что остается сделать, это оставить галочку на первом пункте и нажать «Готово»:

  1. Начнется процедура загрузки файлов, нужно дождаться, пока она закончится. Время зависит от объема данных:

  1. Теперь на вашем компьютере появится папка, в которой сохранены все данные копируемого сайта. Можете зайти в неё и открыть файл HTML в браузере, чтобы проверить, всё ли правильно отображается:

Последний шаг копирования сайта, это его перенос на хостинг. Там всё просто, копируете данные и привязываете заранее арендованный домен. Всё, можно ввести адрес сайта и проверить, всё ли получилось.

Программа Httrack website copier помогает, как сохранить страницу сайта, так и загрузить его полностью. С помощью этой простой утилиты, можно использовать любые красивые одностраничники и повышать конверсию, только не забывайте вносить изменения в код, как минимум, редактируя внешние ссылки.

В наше время, когда интернет доступен практически в любой момент, иногда возникает необходимость скачать сайт целиком. Зачем это нужно? Причины могут быть разные: и желание сохранить важную информацию на будущее, и необходимость получить доступ к нужным данным при отсутствии доступа в сеть, и возможность ознакомиться с тем, как сверстаны страницы. Могут быть и другие резоны. Важно знать, как выполнить эту задачу, и далее мы покажем несколько способов как сделать копию сайта для последующего его использования в оффлайн режиме.

Самый простой способ о котором все знают, даже если ни разу не пользовались. Эта возможность есть в любом браузере. Достаточно лишь нажать комбинацию клавиш «Ctrl»+«S», после чего в открывшемся окне отредактировать название сохраняемой страницы и указать папку, в которую ее следует поместить.

Казалось бы, куда проще. Вот только есть в этом способе один существенный недостаток. Мы скачали всего лишь одну страницу, а в интересующем нас сайте таких страниц может быть весьма большое количество.

Хорошо, если сайт маленький, или состоит всего из одной страницы, а если нет? Придется выполнять это действие для каждый из них. В общем, работа для усидчивых и целеустремленных, не знающих об одном из основных двигателей прогресса.

Способ 2. Использование онлайн-сервисов

Вот оно, самое простое решение. Сейчас много есть полезных онлайн-ресурсов для перекодирования файлов, редактирования аудиофайлов и т. п. Среди достоинств этого метода – кроссплатформенность, отсутствие необходимости захламлять свою операционную систему утилитами, которые, возможно, понадобятся лишь однажды.

Всего делов-то, зайти на такой ресурс, ввести в строку адрес интересующего сайта, нажать кнопку запуска процесса скачивания и подставить «емкость», в которую польется интересующая информация…

В теории так, но, к сожалению, подобных онлайн-ресурсов, позволяющих скачать сайт целиком, раз, два, три и… И, пожалуй, все, если говорить о бесплатной возможности сохранить копию сайта на компьютер. А за все остальное придется платить, или мириться с урезанным функционалом.

Но давайте рассмотрим примеры поближе.

Едва ли не единственный бесплатный и русскоязычный ресурс. Интерфейс предельно прост. В строке вводим адрес интересующего сайта, вводим капчу, нажимаем кнопку «Скачать» и ждем…

Процесс небыстрый, к тому же с первого раза может и не получиться. Если все удачно, то на выходе получим архив с сайтом.

Условно-бесплатный ресурс, позволяющий один раз воспользоваться его услугами бесплатно, после чего за скачивание сайтов придется платить.

Работает webparse.ru быстрее предыдущего ресурса, но делает это не бесплатно. В итоге получаем архив со скачанным сайтом. В настройках нет настройки глубины парсинга структуры скачиваемого сайта, поэтому убедиться, что удалось скачать сайт полностью, придется только самостоятельной сверкой оригинала и его копии.

Другие ресурсы

Среди других способов можно отметить ресурс , создающий PDF-файл со страницами скачиваемого сайта. Естественно, часть функционала сайта будет утеряна. Если это допустимо, то воспользоваться данным ресурсом можно.

Еще один ресурс, позволяющий скачать сайт – . К сожалению, пользоваться им можно только на платной основе.

Способ 3. Специализированные программы

Использование утилит для скачивания файлов — пожалуй, наиболее функциональный вариант, позволяющий добиться своей цели. Придется смириться с тем, что в системе появятся дополнительные программы, одна часть из которых бесплатна, а другая – более меркантильна и требует за выполнение тех же функций поощрение. Причем, бесплатные программы (иногда их еще называют оффлайн-браузерами) по возможностям практически не уступают платным аналогам.

В отличие от онлайн-сервисов, подобная программа работает гораздо быстрее, хотя придется искать подходящую под вашу ОС версию этого ПО. Некоторые программы можно найти не только для ОС Windows, но и для других.

Рассмотрим несколько примеров таких программ.

WinHTTrack WebSite Copier

Одна из самых популярных программ, предназначенных для создания оффлайн-копий сайтов. Справедливости ради надо сказать, что бесплатных аналогов практически нет.

Для того, чтобы пользоваться программой, надо скачать с сайта разработчика подходящую версию, проинсталлировать ее в свою систему и запустить. В первом окне будет предложено выбрать язык интерфейса. Среди всех вариантов есть и русский.

Интерфейс программы прост и запутаться в нем не получится. В первом окне надо указать имя и категорию проекта, а также указать место, где будет храниться скачиваемый сайт.

Теперь надо ввести адрес сайта, который надо скачать. Программа имеет большое количество настроек, где задается глубина просмотра сайта, определяются фильтры, указывающие что скачивать надо, а что – нет. Например, можно запретить скачку изображений, исполняемых файлов и т. п. Настроек много, и если есть необходимость, можно внимательно с ними ознакомиться.

В следующем окне надо нажать кнопку «Готово», после чего остается только дождаться окончания процесса. По окончании в указанной папке будут находиться файлы скачанного сайта. Для того, чтобы открыть его для просмотра необходимо выбрать файл index.htm.

Теперь папку с проектом можно скачивать на любой носитель и просматривать там, где это удобно.

Англоязычная программа с солидно выглядящим интерфейсом и большими возможностями по настройке процедуры скачивания сайта. Достаточно только вести адрес интересующего ресурса, указать папку, в которую сохранить скачанные данные и нажать кнопку «Copy Website».

Все, теперь остается дождаться окончания работы программы и в указанном места найти файл «index.htm», который и будет начальной страницей ресурса, который подготовили для оффлайн-просмотра.

Из недостатков можно отметить только отсутствие русификации, а также то, что Cyotek WebCopy работает только на ОС Windows, начиная с версии Vista. Версий под другие ОС нет.

Teleport Pro

Одна из старейших программ, к сожалению, платная. Имеется тестовый период. После установки и запуска появится главное окно, где необходимо указать режим скачивания сайта. Это может быть полная копия, можно сохранить только определенный тип файлов и т. п.

После этого надо создать новый проект, который будет ассоциирован со скачиваемым сайтом и ввести адрес интересующего интернет-ресурса. По умолчанию глубина переходов по страницам имеет значение 3. Этот параметр можно изменить. После этого можно нажать кнопку «Далее».

Создастся новый проект, необходимо указать папку, в которую сохранять данные. Для запуска процедуры скачивания надо нажать кнопку «Start» (синий треугольник) в панели управления. Начнется процесс сохранения сайта на ваш диск.

Offline Explorer

Еще одна платная, но весьма функциональная программа. Есть русифицированная версия. Триальная версия работает 30 дней, при этом есть ограничение на количество скачиваемых файлов – 2000. Программа существует разновидностях Standard, Pro и Enterprise. Самая дешевая версия стоит 59.95$, а самая дорогая – 599.95$.

Как и в других программах, работа начинается с того, что необходимо создать новый проект и указать адрес интересующего сайта. Доступно большое количеств настроек, при помощи которых можно отфильтровать ненужную информацию, задать глубину просмотра сайта и т. п.

После того как проект создан, отредактированы параметры загрузки, можно нажать кнопку «Загрузить» и дожидаться результата.

Возможностей у программы действительно много. Есть многопоточная загрузка, собственный веб-сервер для просмотра того, что было скачано, масса настроек. Если оценивать все возможности, то программа действительно ценная (уж простите за тавтологию), вот только стоимость ее неприлично высока.

Webcopier

Платная программа с 15-дневным триальным периодом. Существует в версиях для Windows и Mac OS. Алгоритм работы не отличается оригинальностью, что, впрочем, является плюсом. Для скачивания сайта надо создать новый проект, ввести URL.

Мастер попросит ответить на несколько вопросов, например, ввести логин и пароль пользователя на скачиваемом сайте, указать папку назначения, позволит изменить некоторые параметры, например, отключить возможность скачивания изображений. После окончания создания проекта для начала процедуры создания локальной копии сайта надо нажать кнопку «Start download». Будет отображаться процесс при помощи графика, показывающего скорость работы, а также время работы.

Заключение

Возможностей создать локальную коллекцию нужных сайтов для их просмотра достаточно. Есть и онлайн-ресурсы, есть и специализированное ПО. Каждый из вариантов имеет свои достоинства и недостатки. К сожалению, большинство программ платные, и готовы ли вы раскошелиться за более широкий функционал или достаточно того, что умеют бесплатные утилиты – решать каждому самостоятельно.

Прежде чем отдавать предпочтение тому или иному решению, следует попробовать их все, благо даже платные программы имеют тестовый период, пусть и с некоторыми ограничениями. Это позволит оценить возможности этого ПО, понять, необходим ли вам весь этот функционал, насколько корректно производится скачивание сайтов.


Вопрос который является заголовком этого материала поначалу вызывает у обычного современного пользователя полное недоумение. Зачем скачивать сайты, если они и так всегда под рукой? Однако, старые интернетчики и, как показывает жестокая действительность, знают, что это далеко не так.

Я не буду здесь указывать на причины, почему в одно мгновение некоторые, порой очень полезные сайты навсегда исчезают с просторов Интернет. Предлагаю всего лишь ознакомиться с сервисами и программами, которые можно использовать для сохранения сайтов и последующим их просмотром на своём компьютере.


Особенно полезно использовать такую возможность в случае скачивания огромного количества страниц или сайта целиком. Для меня таким случаем, стала потребность скачать с одного из образовательных сайтов все pdf документы. Рассмотрим программы и онлайн-сервисы для скачивания сайтов.

Программы для скачивания сайтов

Подобного рода оффлайн-программы позволят вам скачать указанный раздел или сайт целиком, что может понадобиться в разных случаях. Самое полезное в сохранении сайта на жестком диске, то, что он сохраняется вместе с внутренней системой ссылок.


Оффлайн-браузеры, создают копию всех доступных директорий сайта, что позволяет вам переходить по ссылкам так, как вы делаете на обычном сайте в интернет. В пределах скачанного сайта вы сможете пользоваться всеми разделами и меню.


Кроме того, программы способны распознавать скрипты, интерпретируя их, и тем самым давая возможность использовать их в скачанной копии сайта. При закачке сайта сохраняется полный список файлов вместе со ссылками на них, что дает вам, возможно, не только просматривать страницы, но также слушать музыку и даже смотреть видео.




Одной из самых популярных программ подобного рода является HTTrack WebSite Copier. Её популярность объясняется простым и понятным интерфейсом, поддержкой русского языка, кроссплатформенностью и абсолютной бесплатностью!




Установка приложения выполняется на английском языке, после установки в настройках есть возможность выбора русского языка. Скачивание вебсайта производится с помощью мастера.








Одна из лучших платных программ для закачки сайтов целиком. Цена одной лицензии составляет 50 долларов. В неё нет поддержки русского языка, но интерфейс прост и его быстро можно освоить. Следует отметить что программа уже давно не обновлялась. Как впрочем, и многие другие программы подобного класса.




Позволяет выполнять на веб-странице поиск файлов определенного типа, размера, а также поиск по ключевым словам, формировать список всех страниц и файлов сайта.


Программа создана в компании Metaproducts, для работы в среде Windows. Стоимость самой простой лицензии Standard составляет порядка 60 долларов.


За эти деньги пользователь получает возможность скачивать не только html-страницы, но и потоковое аудио и видео.




Имеет современный интерфейс, в котором приятно работать, а также множество разнообразных настроек и функций, среди которых возможность одновременной обработки до 500 сайтов, загрузка запароленных сайтов, наличие собственного веб-сервера для комфортного просмотра скачанных ресурсов.


Важно! Одной из приятных особенностей программы является поддержка функции Drag–n–Drop, которая позволяет сохранять страницы путем их перетаскивания из браузера в программу.



Website Extractor

Программа для загрузки сайтов на жесткий диск.


приложение, позволяющее скачивать из интернета сайты целиком (или частично - по желанию). Программа относится к классу т.н. "оффлайновых" браузеров.



WebTransporter

Программа, позволяющая скачивать сайты и просматривать их офлайн.




это программа, установив которую, вы сможете просматривать необходимые вам страницы Интернета без подключения к сети.


Программа, которая позволяет сохранять на вашем жестком диске структуру веб-сайтов, а также каталоги товаров и прочее.




Программа анализирует веб-страницы и ищет на них заданную информацию.



SurfOffline

Разработчики предлагают 30-дневный испытательный срок чтобы протестировать все возможности программы.
Сохранение сайта происходит через мастер. Программа позволяет скачивать как весь сайт так и отдельные страницы.

Таблица сравнения программ по созданию оффлайн-копий сайтов.

Название программы Ссылка на сайт разработчика Бесплатные функции Просмотр в офлайн Скачивание
A1 Website Download http://www.microsystools.com/products/website-download/ ограничен +
BackStreet Browser http://www.spadixbd.com/backstreet/index.htm ограничены +
Cyotek WebCopy http://www.cyotek.com/cyotek-webcopy все + +
Darcy Ripper http://darcyripper.com/ все +
GetLeft не существует все частично
GNU Wget http://www.gnu.org/software/wget/ все - +
HTTrack http://www.httrack.com/ все + +
Local Website Archive http://www.aignes.com/lwa.htm ограничены - частично
Offline Downloader http://www.offlinedownloader.com/ 30-дневный испытательный срок + +
ограничены + +
QuadSucker/Web http://www.quadsucker.com/quadweb/ все + +
SurfOffline http://www.surfoffline.com/ 30-дневный испытательный срок + +
http://www.tenmax.com/teleport/pro/home.htm ограничены + +
http://visualwebripper.com/ 15-дневный испытательный срок - +
http://www.newprosoft.com/web-content-extractor.htm ограничены извлекает нужные данные +
Web2Disk http://www.web2disk.com/Default.aspx ограничены +
WebTransporter http://www.realsofts.com/ru мало +
http://www.spidersoft.com/webzip/ ограничены + +

Продолжение таблицы сравнения программ по созданию оффлайн-копий сайтов.

Название программы Поддерживаемые технологии Настраиваемая фильтрация Операционная система Версия Год выпуска Стоимость
A1 Website Download + Windows, Mac OS X от 39 уе
BackStreet Browser Windows 3.2 2011 19 уе
Cyotek WebCopy очень много визуальных настроек и режимов + Windows 1.1.1.4 2016 бесплатен
Darcy Ripper кроссплатформенный бесплатен
GetLeft - Windows (with Tcl/Tk), Linux, Mac OSX 2.5 бесплатен
GNU Wget Linux бесплатен
HTTrack кроссплатформенный бесплатен
Local Website Archive - Windows 29,95 евро
Offline Downloader Windows 4.2 29,95 уе
все + Windows от 60 уе
QuadSucker/Web Windows 3.5 2007 бесплатен
SurfOffline CSS, Flash, HTTPS, JS + Windows 29,95 уе
HTML5, CSS3, and DHTML + Windows 1.72 2015 49,95 уе
AJAX + Windows 3.0.16 2016 349уе
+ Windows 8.3 2016 49 уе
Web2Disk Windows 39,95 уе
WebTransporter http + Windows недоступна
Windows 7.1.2.1052 2008 39,95 уе

Всем привет! Друзья, в этой статье я расскажу, как скачать сайт ? Какие существуют программы для скачивания блогов? Сделаю обзор программ для закачки сайтов и блогов, а на примере одной из них опишу весь процесс скачивания сайта целиком .

Мне не раз задают вопросы: «Как скачать целый сайт ?» со всеми скриптами, статьями, картинками и т.п. Как сделать копию сайта у себя на жёстком диске и др. На самом деле скачать сайт целиком можно несколькими программами (способами), давайте рассмотрим их.

Для скачивания же сайта целиком разумнее воспользоваться специальными программами, называют их оффлайн-браузерами . С их помощью вы легко можете скачать свой любимый сайт , сохранив его на жёсткий диск компьютера. А затем, просматривать его без интернета, использовать его скрипты, графику и всё остальное.

Программы для закачки сайтов:

1. Teleport Pro
2. Offline Explorer Pro
3. Webcopier
4. HTTrack Website Copier

Teleport Pro - это одна из наиболее известных программ для скачивания сайтов.

Программа Teleport Pro позволит вам очень быстро скачать практически любой сайт , имеет простой, интуитивно понятный интерфейс. Вы можете использовать различные настройки программы, устанавливать режим и глубину скачивания. Она поможет вам сделать как полную копию сайта с сохранением структуры его каталогов, так и скачать отдельную веб-страничку или файл этого сайта.
Оффлайн-браузер Teleport Pro может быть интегрирован в браузеры Opera или Internet Explorer, поддерживает многопоточную закачку файлов. В программе есть возможность скачивать сайты по расписанию, задать маску файлов, что позволит скачивать (или не скачивать) только файлы определённого типа. Во избежание бана на сайте вы можете установить в программе Teleport Pro ограничение на массовое скачивание. В целом, программа для скачивания сайтов неплохая, я ей пользовался, единственный минус - полная её версия платная!..

Offline Explorer Pro - русскоязычный оффлайн-браузер для скачивания сайтов.

Позволяет вам, как скачивать сайт целиком , так и отдельные его страницы (можно задать маску файлов). Сохранённые страницы, картинки, скрипты и др. файлы доступны в режиме оффлайн. Все загруженные сайты, файлы сайтов вы можете записать на оптический диск, экспортировать, например в.zip архив или другой удобный для вас формат.
Программа Offline Explorer Pro позволяет редактировать сохранённые веб-страницы, по загруженным сайтам есть полноценный поиск. Для удобства использования Offline Explorer Pro, в неё встроен мастер новых проектов, призванный ускорить работу с программой. Offline Explorer Pro скачивает сайт по протоколам: Web, HTTPS и FTP, позволяет загружать потоковое аудио и видео по протоколам RTSP, PNM, MMS и NSV. От себя добавлю, Offline Explorer Pro мощная, удобная программа для скачивания сайтов .

Webcopier - небольшая, российская программка для закачки сайтов.

Программа Webcopier достаточно простая и благодаря русскоязычному меню вы легко её освоите. Открыв программу Webcopier, перед вами появится мастер закачки нового сайта, он пошагово поможет настроить все опции для загрузки сайта, установить количество одновременно скачиваемых файлов (100 максимум), настроить глубину скачивания сайта и различных фильтров загружаемых файлов.
Также программа Webcopier может работать с сайтами уже загруженными на жёсткий диск. Она позволяет обновлять изменившиеся страницы сайта, ссылки, и загружать новые файлы, не перезагружая сайт целиком. В целом программа работает нормально, каких-либо замечаний при тестировании её на скачивание сайта у меня не возникло.

Оффлайн-браузер HTTrack Website Copier - удобная программа для скачивания сайтов . Именно на её примере я подробно расскажу, как скачать сайт к себе на компьютер!
Итак, начнём:
1. Скачайте архив с программой в конце этой статьи, установите HTTrack Website Copier на свой компьютер. Думаю, нет необходимости описывать установку программы, там всё понятно и так!
2. На рабочем столе появится ярлык программы, запустите его.

3. Перед вами появится приветственное окошко программы HTTrack Website Copier. Дизайн здесь не самый лучший, главное, что она работает отлично. Нажмите кнопку «Далее».

4. В открывшемся окне введите имя проекта, категорию проекта и укажите папку, куда будет скачиваться сайт. Нажмите кнопку «Далее».

5. Продолжаем задавать настройки для закачки сайта программой HTTrack Website Copier , в большое поле введите адрес загружаемого сайта, не забудьте указать протокол http:// . Нажмите кнопку «Задать параметры».

6. Откройте вкладку «Фильтры», здесь можно указать какие типы файлов необходимо загружать вместе с сайтом. Я обычно отмечаю всё, ставлю галочки напротив каждого типа файлов. Нажимаем кнопку «ОК».

7. Возвращаемся в предыдущее окно и нажимаем кнопку «Далее». В принципе, нам здесь ничего менять не нужно, поэтому смело нажимаем кнопку «Готово».

8. Программа HTTrack Website Copier сразу же начнёт скачивать сайт , и известит вас звуковым сигналом, как только загрузка будет завершена.

9. Теперь можно перейти в папку, которую мы указывали для загрузки, в ней будет находиться ещё одна папка с именем нашего проекта в программе. В ней и лежит наш только что скачанный сайт ! Чтобы его запустить, найдите файлик index.html и откройте его в любом браузере.

Как видите скачать сайт целиком совсем не сложно! Я рассказал только о четырёх программах (оффлайн-браузерах ) для скачивания сайтов , на самом деле их, конечно же, больше. Есть даже on-line сервисы для скачивания сайтов , они скачивают файлы сайта в архив, который вы можете потом распаковать и работать дальше.

Как вам статья? Надеюсь тема: «Как скачать сайт » была вам интересна. Советую подписаться на обновления моего сайта по e-mail, чтобы получать анонсы новых статей к себе на почту и участвовать в для подписчиков.

К аждый активный пользователь интернета не раз сталкивался с ситуацией, когда на просторах всемирной паутины находил крайне полезный сайт, информацию с которого хотелось бы сохранить в свою личную коллекцию. Многие пользователи для этого пользуются инструментом «Закладки», который есть во всех браузерах. Но этот простой способ коллекционирования на самом деле не сохраняет саму информацию, а всего лишь сохраняет ссылку на эту информацию в интернете. Это влечет за собой потенциальные проблемы (описанные далее в статье). Поэтому в некоторых случаях может быть важным сохранить не просто ссылку, но и сами страницы сайта. Причем сделать это в наиболее удобном виде и без излишней кропотливой ручной работы. HTTrack — бесплатная программа, созданная специально для этих целей. В этой статье будет рассказано как скачать сайт целиком с помощью программы HTTrack и какие наиболее важные настройки этой программы следует выставлять в процессе работы.

Зачем скачивать сайты?

Как уже было упомянуто, простое сохранение ссылки на нужную страничку не всегда бывает полезным. Прежде всего очевидно, что при отсутствии доступа к интернету не получится просмотреть информацию по ссылке. Поэтому часто люди предпочитают в браузере нажать сохранение html-страницы. А в случае если таких страниц не одна или две, а десяток или даже сотни, то задаются вопросом, как скачать сайт полностью чтобы элементарно иметь возможность работать с ним оффлайн. Например, удобно было бы копировать папку с файлами сайта на планшет, чтобы почитать их в дороге.

Вторая важная причина, по которой стоит сохранять интернет страницы — это проблема недолговечности. Вы можете иметь постоянный доступ к интернету по нескольким подстраховочным каналам. Но это скорее всего не поможет в случае, если сайт стал недоступен. Может хозяин сайта перестал оплачивать его. Или ресурс заблокировали по каким-то причинам. Или с сайта был удален нужный Вам раздел. Или сайт атаковали злобные хакеры, и он долгое время не грузится. Причин может быть много, но итог один — не получается перейти по сохраненной ссылке, чтобы просмотреть нужную страницу. Спасительной соломинкой может служить кэш Google, из которого иногда можно выудить копии недоступной страницы. Но это слишком неудобный способ и к тому же ненадежный — не все страницы могут храниться в гугл-кэше.

Преимущества использования программ закачки сайтов

Самый простой вариант сохранения интернет-страниц — это использование штатных средств браузеров. Но в этом случае пользователь сталкивается с двумя непреодолимыми проблемами:

1. Страницы приходится сохранять вручную, по одной. Если страниц много, то это неблагодарный труд.

2. Все сохраненные страницы никак не связаны между собой. Открыв первую страницу и нажав ссылку на вторую страницу, браузер будет пытаться открыть адрес в интернете, а не сохраненный файл на Вашем компьютере.

Есть еще третья проблема поменьше — если на всех этих сохраненных страницах используется одна большая картинка (например логотип сайта), то такая картинка будет сохраняться в новый файл рядом с сохраняемыми страницами. А это значит что будет напрасно расходоваться место на жестком диске для хранения многократно дублирующейся объемной информации.

Именно для решения этих трех проблем и были придуманы программы, знающие как скачать сайт целиком сохранив не только текст страниц и изображения, но и структуру ссылок между ними. Таким образом, если такой программой-качалкой скачать статический сайт (состоящий из html, css-файлов и картинок), то можно получить точную копию всех этих файлов на своем жестком диске.

Установка программы HTTrack

Перейдем непосредственно к практике. Прежде всего необходимо скачать программу со страницы закачки на официальном сайте. Можно скачать программу установки и установить, но проще скачать архив с портативной версией программы (третья ссылка в списке ссылок для закачки).

Скачанный архив следует распаковать в любое удобное место и запустить приложение WinHTTrack.exe

В результате откроется окно программы, в котором можно как скачать сайт полностью, так и скачать выборочные страницы.

Как скачать сайт целиком?

Перед тем как скачать сайт полностью, следует оценить, насколько большой объем информации содержится на сайте. Если на сайте всего пара десятков страниц, то скачать его нетрудно. Но некоторые порталы могут содержать десятки тысяч страниц, и качать их все может не иметь смысла. Поэтому чаще всего ограничиваются скачиванием определенных разделов сайта Для примера предположим, что перед нами стоит задача скачать учебный раздел «Начало работы в Веб» с сайта Mozilla — чтобы на досуге почитать скачанные тексты.

После запуска программы появляется главное окно, в котором предлагается начать новый проект по закачке. Для этого нажимаем кнопку «Далее».

Задаем произвольное имя проекта и указываем путь, куда следует сохранить скачанную информацию.

При закачке сайтов следует знать одну важную вещь — программа начинает закачку с определенной страницы, указанной пользователем, сохраняет ее и все картинки на ней. Это первый уровень сохранения. Затем программа последовательно просматривает все ссылки на этой странице, и начинает сохранять html-файлы по этим ссылкам со всем их содержимым. Это второй уровень сохранения. Далее программа переходит на третий уровень, сканируя ссылки на всех страницах второго уровня. После переходит на четвертый уровень, пятый и т.д. до тех пор пока не сохранит все страницы на сайте. Это означает, что если сайт достаточно большой, то с переходом на каждый новый уровень объем сохраняемых данных возрастает в геометрической прогрессии. Поэтому крайне важно изначально указать правильную страницу, с которой будет начато сканирование — чтобы процесс ветвления равномерно охватывал все подразделы и можно было бы задать небольшую глубину сканирования без риска что до каких-то нужных страниц дело не дойдет. Лучший вариант, если это страница, на которой размещено содержание материала, карта сайта или главное меню сайта. Тогда все нужные материалы находятся в шаговой доступности и не останутся без внимания.

В нашем случае мы задаем главную страницу раздела, на которой содержится содержание интересующих нас материалов. А в типе проекта указываем вариант «Загрузить сайты + вопросы». Ценность варианта с вопросами состоит в том, что если на страницах будут ссылки на другие сайты, то программа спросит, нужно ли их закачивать или нет. Без этого пришлось бы тратить много времени и трафика на закачку других ненужных сайтов.

Выставив нужные значения в полях адреса и типа проекта, следует нажать кнопку параметры, чтобы указать, что именно следует закачивать.

Настройка параметров закачки

Тут во вкладке «Ограничения» нужно указать, на какую глубину (на сколько уровней) осуществлять переход по ссылкам. Также не лишним будет ограничить скорость закачки, чтобы не перегружать сервер сайта интенсивными запросами.

Другим важным моментом является указание типов файлов, которые необходимо загружать. Обычно сайт загружают вместе с картинками. А если на сайте есть музыкальные и видеофайлы, то их загрузка может оказаться нереальной задачей. Поэтому в каждом отдельном случае взвешивается целесообразность загрузки того или иного содержимого. И на основании этого составляется список допустимых и недопустимых к загрузке типов файлов. Задать этот список можно на вкладке «Фильтры».

В программе HTTrack содержится и множество других настроек, которые в отдельных случаях могут быть востребованы. Но в подавляющем большинстве случаев достаточно выставить только глубину сканирования и типы файлов.

Запуск процесса

После того как все необходимые параметры заданы, можно перейти непосредственно к этапу закачки. Для этого надо в главном окне программы нажать кнопку «Далее», а в следующем окне — кнопку «Готово».

Начнется закачка сайта, в процессе которой будут появляться вопросы, что делать со ссылками на другие ресурсы. Если нет необходимости использовать стороннюю информацию, то лучше всего выбирать вариант «Игнорировать домен».

Чем больше глубина сканирования, тем больше сторонних ссылок может обнаружить программа. Поэтому иногда процесс работы с ответами может быть кропотливым. Но это стоит того, поскольку это самый надежный способ закачать именно то, что нужно, и отменить закачку того, что не нужно. По мере исчерпания ссылок вопросов будет становиться все меньше, и в конце концов нам останется только следить за процессом закачки.

По окончании этого процесса появится окно с сообщением «Создание зеркала завершено».

Теперь можно перейти в папку со скачанными файлами и просматривать их. Теперь они доступны даже без доступа к интернету.

Выводы

С помощью программы HTTrack можно как скачать сайт целиком, так и скачать выборочные разделы сайта. С помощью настроек программы можно задавать глубину сканирования ссылок и тем самым регулировать объем скачиваемой информации, если сайт имеет большое число страниц. Также с помощью фильтров можно ограничить виды скачиваемых файлов, что может быть полезно в случае наличия больших мультимедийных файлов или архивов на скачиваемом сайте. А интерактивные вопросы по ходу закачки позволяют указать программе, что из стороннего содержимого закачивать нужно, а что не нужно. Благодаря этому можно получить копию сайта на своем компьютере и работать с этой информацией офлайн.