Управление мышью в яндекс браузере. Отключить "жест", чтобы отключить сенсорную панель. Как пользоваться жестами мыши

К аждый активный пользователь интернета не раз сталкивался с ситуацией, когда на просторах всемирной паутины находил крайне полезный сайт, информацию с которого хотелось бы сохранить в свою личную коллекцию. Многие пользователи для этого пользуются инструментом «Закладки», который есть во всех браузерах. Но этот простой способ коллекционирования на самом деле не сохраняет саму информацию, а всего лишь сохраняет ссылку на эту информацию в интернете. Это влечет за собой потенциальные проблемы (описанные далее в статье). Поэтому в некоторых случаях может быть важным сохранить не просто ссылку, но и сами страницы сайта. Причем сделать это в наиболее удобном виде и без излишней кропотливой ручной работы. HTTrack — бесплатная программа, созданная специально для этих целей. В этой статье будет рассказано как скачать сайт целиком с помощью программы HTTrack и какие наиболее важные настройки этой программы следует выставлять в процессе работы.

Зачем скачивать сайты?

Как уже было упомянуто, простое сохранение ссылки на нужную страничку не всегда бывает полезным. Прежде всего очевидно, что при отсутствии доступа к интернету не получится просмотреть информацию по ссылке. Поэтому часто люди предпочитают в браузере нажать сохранение html-страницы. А в случае если таких страниц не одна или две, а десяток или даже сотни, то задаются вопросом, как скачать сайт полностью чтобы элементарно иметь возможность работать с ним оффлайн. Например, удобно было бы копировать папку с файлами сайта на планшет, чтобы почитать их в дороге.

Вторая важная причина, по которой стоит сохранять интернет страницы — это проблема недолговечности. Вы можете иметь постоянный доступ к интернету по нескольким подстраховочным каналам. Но это скорее всего не поможет в случае, если сайт стал недоступен. Может хозяин сайта перестал оплачивать его. Или ресурс заблокировали по каким-то причинам. Или с сайта был удален нужный Вам раздел. Или сайт атаковали злобные хакеры, и он долгое время не грузится. Причин может быть много, но итог один — не получается перейти по сохраненной ссылке, чтобы просмотреть нужную страницу. Спасительной соломинкой может служить кэш Google, из которого иногда можно выудить копии недоступной страницы. Но это слишком неудобный способ и к тому же ненадежный — не все страницы могут храниться в гугл-кэше.

Преимущества использования программ закачки сайтов

Самый простой вариант сохранения интернет-страниц — это использование штатных средств браузеров. Но в этом случае пользователь сталкивается с двумя непреодолимыми проблемами:

1. Страницы приходится сохранять вручную, по одной. Если страниц много, то это неблагодарный труд.

2. Все сохраненные страницы никак не связаны между собой. Открыв первую страницу и нажав ссылку на вторую страницу, браузер будет пытаться открыть адрес в интернете, а не сохраненный файл на Вашем компьютере.

Есть еще третья проблема поменьше — если на всех этих сохраненных страницах используется одна большая картинка (например логотип сайта), то такая картинка будет сохраняться в новый файл рядом с сохраняемыми страницами. А это значит что будет напрасно расходоваться место на жестком диске для хранения многократно дублирующейся объемной информации.

Именно для решения этих трех проблем и были придуманы программы, знающие как скачать сайт целиком сохранив не только текст страниц и изображения, но и структуру ссылок между ними. Таким образом, если такой программой-качалкой скачать статический сайт (состоящий из html, css-файлов и картинок), то можно получить точную копию всех этих файлов на своем жестком диске.

Установка программы HTTrack

Перейдем непосредственно к практике. Прежде всего необходимо скачать программу со страницы закачки на официальном сайте. Можно скачать программу установки и установить, но проще скачать архив с портативной версией программы (третья ссылка в списке ссылок для закачки).

Скачанный архив следует распаковать в любое удобное место и запустить приложение WinHTTrack.exe

В результате откроется окно программы, в котором можно как скачать сайт полностью, так и скачать выборочные страницы.

Как скачать сайт целиком?

Перед тем как скачать сайт полностью, следует оценить, насколько большой объем информации содержится на сайте. Если на сайте всего пара десятков страниц, то скачать его нетрудно. Но некоторые порталы могут содержать десятки тысяч страниц, и качать их все может не иметь смысла. Поэтому чаще всего ограничиваются скачиванием определенных разделов сайта Для примера предположим, что перед нами стоит задача скачать учебный раздел «Начало работы в Веб» с сайта Mozilla — чтобы на досуге почитать скачанные тексты.

После запуска программы появляется главное окно, в котором предлагается начать новый проект по закачке. Для этого нажимаем кнопку «Далее».

Задаем произвольное имя проекта и указываем путь, куда следует сохранить скачанную информацию.

При закачке сайтов следует знать одну важную вещь — программа начинает закачку с определенной страницы, указанной пользователем, сохраняет ее и все картинки на ней. Это первый уровень сохранения. Затем программа последовательно просматривает все ссылки на этой странице, и начинает сохранять html-файлы по этим ссылкам со всем их содержимым. Это второй уровень сохранения. Далее программа переходит на третий уровень, сканируя ссылки на всех страницах второго уровня. После переходит на четвертый уровень, пятый и т.д. до тех пор пока не сохранит все страницы на сайте. Это означает, что если сайт достаточно большой, то с переходом на каждый новый уровень объем сохраняемых данных возрастает в геометрической прогрессии. Поэтому крайне важно изначально указать правильную страницу, с которой будет начато сканирование — чтобы процесс ветвления равномерно охватывал все подразделы и можно было бы задать небольшую глубину сканирования без риска что до каких-то нужных страниц дело не дойдет. Лучший вариант, если это страница, на которой размещено содержание материала, карта сайта или главное меню сайта. Тогда все нужные материалы находятся в шаговой доступности и не останутся без внимания.

В нашем случае мы задаем главную страницу раздела, на которой содержится содержание интересующих нас материалов. А в типе проекта указываем вариант «Загрузить сайты + вопросы». Ценность варианта с вопросами состоит в том, что если на страницах будут ссылки на другие сайты, то программа спросит, нужно ли их закачивать или нет. Без этого пришлось бы тратить много времени и трафика на закачку других ненужных сайтов.

Выставив нужные значения в полях адреса и типа проекта, следует нажать кнопку параметры, чтобы указать, что именно следует закачивать.

Настройка параметров закачки

Тут во вкладке «Ограничения» нужно указать, на какую глубину (на сколько уровней) осуществлять переход по ссылкам. Также не лишним будет ограничить скорость закачки, чтобы не перегружать сервер сайта интенсивными запросами.

Другим важным моментом является указание типов файлов, которые необходимо загружать. Обычно сайт загружают вместе с картинками. А если на сайте есть музыкальные и видеофайлы, то их загрузка может оказаться нереальной задачей. Поэтому в каждом отдельном случае взвешивается целесообразность загрузки того или иного содержимого. И на основании этого составляется список допустимых и недопустимых к загрузке типов файлов. Задать этот список можно на вкладке «Фильтры».

В программе HTTrack содержится и множество других настроек, которые в отдельных случаях могут быть востребованы. Но в подавляющем большинстве случаев достаточно выставить только глубину сканирования и типы файлов.

Запуск процесса

После того как все необходимые параметры заданы, можно перейти непосредственно к этапу закачки. Для этого надо в главном окне программы нажать кнопку «Далее», а в следующем окне — кнопку «Готово».

Начнется закачка сайта, в процессе которой будут появляться вопросы, что делать со ссылками на другие ресурсы. Если нет необходимости использовать стороннюю информацию, то лучше всего выбирать вариант «Игнорировать домен».

Чем больше глубина сканирования, тем больше сторонних ссылок может обнаружить программа. Поэтому иногда процесс работы с ответами может быть кропотливым. Но это стоит того, поскольку это самый надежный способ закачать именно то, что нужно, и отменить закачку того, что не нужно. По мере исчерпания ссылок вопросов будет становиться все меньше, и в конце концов нам останется только следить за процессом закачки.

По окончании этого процесса появится окно с сообщением «Создание зеркала завершено».

Теперь можно перейти в папку со скачанными файлами и просматривать их. Теперь они доступны даже без доступа к интернету.

Выводы

С помощью программы HTTrack можно как скачать сайт целиком, так и скачать выборочные разделы сайта. С помощью настроек программы можно задавать глубину сканирования ссылок и тем самым регулировать объем скачиваемой информации, если сайт имеет большое число страниц. Также с помощью фильтров можно ограничить виды скачиваемых файлов, что может быть полезно в случае наличия больших мультимедийных файлов или архивов на скачиваемом сайте. А интерактивные вопросы по ходу закачки позволяют указать программе, что из стороннего содержимого закачивать нужно, а что не нужно. Благодаря этому можно получить копию сайта на своем компьютере и работать с этой информацией офлайн.

Обновление локальной копии
Для того, чтобы продолжить скачивание большого блога или синхронизировать локальную версию с тем, что есть в Интернете, httrack может обновить скачанный проект. Насколько я понял, для этого нужно добавить к вышеупомянутому заклинанию ключик --update

То есть для обновления уже скачанного блога с blogspot из директории, где находится директория hts-cache (в ней лежит файл hts-cache/doit.log который содержит все нужные параметры) и пишем:

httrack "http://ВАШБЛОГТУТ .blogspot.com/" "+*.css" "+*.js" "+*.jpg" "+*.jpeg" "+*.tiff" "+*.png" "+*.gif" "+*.giff" "+*.swf" "+.ico" -v --disable-security-limits -s0 "-*666*" "-*BlogBacklinkURL*" --update
И httrack пытается обновить проект. И обновляет его, выкачивая оставшиеся файлы. Кстати, чтобы пропускать файлы со слишком тормозных серверов, можно ещё тайм-аут для httrack поставить поменьше, добавив ключик --timeout 20 после чего тайм-аут будет 20 секунд.

Отмечу так же, что в каталоге hts-cache лежат два больших архива в формате ZIP - так вот, удалить можно только тот из них, который называется old.zip, а new.zip лучше не трогать. Дело в том, что эти файлы содержат информацию, необходимую httrack для обновления скачанного сайта, и если эти файлы удалить, то вы не сможете просто обновить копию (придётся выкачивать всё заново).

Ссылки в тему
Над этой темой бились лучшие умы блоговедения и блоготехники, достижения коих увековечены к примеру в заметке Дмитрия Конищева Создание зеркала сайта и в посте Андрея Афанасенко Архив блога/blogarchive . За что оным умам (а так же всем, кто принимал участие в обсуждениях) низкий поклон и огромная благодарность.
Так же благодарность тов.
vnaum за то, что разыскал в дебрях документации к Блоггеру ссылку на возможность получить все посты Blogger с помощью скриптов на Python.

15 комментариев: | | RSS-лента дискуссии. |
Programmaster комментирует... 21 дек. 2009 г., 16:53:00

Любопытненько. Передо мной задача зеркалирования блога не вставала, но задумка интересная. Попробую-ка свой скопировать ради интереса…

Olly Cat комментирует... 21 дек. 2009 г., 20:31:00

Спасибо, очень интересно и познавательно. Надо подумать как теперь это дело использовать для переноса с одного блога на другой (давно хотел перенести свой старый ЖЖ в блогспот, да руки все не доходили).

Сергей комментирует... 21 дек. 2009 г., 22:41:00

Хотел заметить, что получить архив своего блога проще всего из панели управления — Настройки/Основные сведения/Инструменты блога/Экспорт блога. И получаем XML со всем-всем-всем. Хороший XML. Только данные (но в том числе и все настройки-стили), никакого генерируемого HTML.

У меня была мысль, что можно написать скрипт, формирующий по этому XML-архиву документ TeX, вестаемый автоматически для чтения оффлайн — под печать или e-book. Вроде ljbook или blurb, но лучше:-) Дарю идею.

vnaum комментирует... 23 дек. 2009 г., 00:23:00

Ну и мои две копейки:
http://code.google.com/apis/blogger/docs/1.0/developers_guide_python.html#RetrievingWithoutQuery

(python-gdata в дебиане есть)

virens комментирует... 23 дек. 2009 г., 01:59:00

@ Programmaster пишет...
Любопытненько. Передо мной задача зеркалирования блога не вставала, но задумка интересная.
Скоро встанет такая задача и перед тобой, когда постов будет за сотню. Не всегда есть подключение к интернету - вон в МИФИ вторую неделю интернета нету. Хотя он уж и не МИФИ, я нияу... но не суть.

@ Olly Cat пишет...
Надо подумать как теперь это дело использовать для переноса с одного блога на другой (давно хотел перенести свой старый ЖЖ в блогспот, да руки все не доходили).
Таким способом, думаю, вряд ли. Блогспот загружает один здоровенный XML-файл, но я без понятия, как его сформировать.

@ Сергей пишет...
Хотел заметить, что получить архив своего блога проще всего из панели управления — Настройки/Основные сведения/Инструменты блога/Экспорт блога. И получаем XML со всем-всем-всем.
О, а вот и оберфельдфебель Эвиденц в тред нагрянул! :-)) Извини, Сергей, не смог удержаться;-))

Хороший XML. Только данные (но в том числе и все настройки-стили), никакого генерируемого HTML.
Хорошая девочка Лида, а чем же она хороша?! :-)
Серьёзно, просмотреть его не получается. А раздавать этот файл всем - это у меня и так статьи тырят, а там просто двойники пойдут косяками.

У меня была мысль, что можно написать скрипт, формирующий по этому XML-архиву документ TeX, вестаемый автоматически для чтения оффлайн — под печать или e-book.
Ох ты ёлки-лампочки... Вот до чего хаскель-то доводит, мамочки, поди ж ты... :-)

@vnaum пишет...
Ну и мои две копейки
Это целый рубль, vnaum! Спасибо!

P.S. Прошу простить за немного ироничные ответы, т.к. писал весь день отчёты. После этого сильно пробивает на посмеяться:-)

В наше время, когда интернет доступен практически в любой момент, иногда возникает необходимость скачать сайт целиком. Зачем это нужно? Причины могут быть разные: и желание сохранить важную информацию на будущее, и необходимость получить доступ к нужным данным при отсутствии доступа в сеть, и возможность ознакомиться с тем, как сверстаны страницы. Могут быть и другие резоны. Важно знать, как выполнить эту задачу, и далее мы покажем несколько способов как сделать копию сайта для последующего его использования в оффлайн режиме.

Самый простой способ о котором все знают, даже если ни разу не пользовались. Эта возможность есть в любом браузере. Достаточно лишь нажать комбинацию клавиш «Ctrl»+«S», после чего в открывшемся окне отредактировать название сохраняемой страницы и указать папку, в которую ее следует поместить.

Казалось бы, куда проще. Вот только есть в этом способе один существенный недостаток. Мы скачали всего лишь одну страницу, а в интересующем нас сайте таких страниц может быть весьма большое количество.

Хорошо, если сайт маленький, или состоит всего из одной страницы, а если нет? Придется выполнять это действие для каждый из них. В общем, работа для усидчивых и целеустремленных, не знающих об одном из основных двигателей прогресса.

Способ 2. Использование онлайн-сервисов

Вот оно, самое простое решение. Сейчас много есть полезных онлайн-ресурсов для перекодирования файлов, редактирования аудиофайлов и т. п. Среди достоинств этого метода – кроссплатформенность, отсутствие необходимости захламлять свою операционную систему утилитами, которые, возможно, понадобятся лишь однажды.

Всего делов-то, зайти на такой ресурс, ввести в строку адрес интересующего сайта, нажать кнопку запуска процесса скачивания и подставить «емкость», в которую польется интересующая информация…

В теории так, но, к сожалению, подобных онлайн-ресурсов, позволяющих скачать сайт целиком, раз, два, три и… И, пожалуй, все, если говорить о бесплатной возможности сохранить копию сайта на компьютер. А за все остальное придется платить, или мириться с урезанным функционалом.

Но давайте рассмотрим примеры поближе.

Едва ли не единственный бесплатный и русскоязычный ресурс. Интерфейс предельно прост. В строке вводим адрес интересующего сайта, вводим капчу, нажимаем кнопку «Скачать» и ждем…

Процесс небыстрый, к тому же с первого раза может и не получиться. Если все удачно, то на выходе получим архив с сайтом.

Условно-бесплатный ресурс, позволяющий один раз воспользоваться его услугами бесплатно, после чего за скачивание сайтов придется платить.

Работает webparse.ru быстрее предыдущего ресурса, но делает это не бесплатно. В итоге получаем архив со скачанным сайтом. В настройках нет настройки глубины парсинга структуры скачиваемого сайта, поэтому убедиться, что удалось скачать сайт полностью, придется только самостоятельной сверкой оригинала и его копии.

Другие ресурсы

Среди других способов можно отметить ресурс , создающий PDF-файл со страницами скачиваемого сайта. Естественно, часть функционала сайта будет утеряна. Если это допустимо, то воспользоваться данным ресурсом можно.

Еще один ресурс, позволяющий скачать сайт – . К сожалению, пользоваться им можно только на платной основе.

Способ 3. Специализированные программы

Использование утилит для скачивания файлов — пожалуй, наиболее функциональный вариант, позволяющий добиться своей цели. Придется смириться с тем, что в системе появятся дополнительные программы, одна часть из которых бесплатна, а другая – более меркантильна и требует за выполнение тех же функций поощрение. Причем, бесплатные программы (иногда их еще называют оффлайн-браузерами) по возможностям практически не уступают платным аналогам.

В отличие от онлайн-сервисов, подобная программа работает гораздо быстрее, хотя придется искать подходящую под вашу ОС версию этого ПО. Некоторые программы можно найти не только для ОС Windows, но и для других.

Рассмотрим несколько примеров таких программ.

WinHTTrack WebSite Copier

Одна из самых популярных программ, предназначенных для создания оффлайн-копий сайтов. Справедливости ради надо сказать, что бесплатных аналогов практически нет.

Для того, чтобы пользоваться программой, надо скачать с сайта разработчика подходящую версию, проинсталлировать ее в свою систему и запустить. В первом окне будет предложено выбрать язык интерфейса. Среди всех вариантов есть и русский.

Интерфейс программы прост и запутаться в нем не получится. В первом окне надо указать имя и категорию проекта, а также указать место, где будет храниться скачиваемый сайт.

Теперь надо ввести адрес сайта, который надо скачать. Программа имеет большое количество настроек, где задается глубина просмотра сайта, определяются фильтры, указывающие что скачивать надо, а что – нет. Например, можно запретить скачку изображений, исполняемых файлов и т. п. Настроек много, и если есть необходимость, можно внимательно с ними ознакомиться.

В следующем окне надо нажать кнопку «Готово», после чего остается только дождаться окончания процесса. По окончании в указанной папке будут находиться файлы скачанного сайта. Для того, чтобы открыть его для просмотра необходимо выбрать файл index.htm.

Теперь папку с проектом можно скачивать на любой носитель и просматривать там, где это удобно.

Англоязычная программа с солидно выглядящим интерфейсом и большими возможностями по настройке процедуры скачивания сайта. Достаточно только вести адрес интересующего ресурса, указать папку, в которую сохранить скачанные данные и нажать кнопку «Copy Website».

Все, теперь остается дождаться окончания работы программы и в указанном места найти файл «index.htm», который и будет начальной страницей ресурса, который подготовили для оффлайн-просмотра.

Из недостатков можно отметить только отсутствие русификации, а также то, что Cyotek WebCopy работает только на ОС Windows, начиная с версии Vista. Версий под другие ОС нет.

Teleport Pro

Одна из старейших программ, к сожалению, платная. Имеется тестовый период. После установки и запуска появится главное окно, где необходимо указать режим скачивания сайта. Это может быть полная копия, можно сохранить только определенный тип файлов и т. п.

После этого надо создать новый проект, который будет ассоциирован со скачиваемым сайтом и ввести адрес интересующего интернет-ресурса. По умолчанию глубина переходов по страницам имеет значение 3. Этот параметр можно изменить. После этого можно нажать кнопку «Далее».

Создастся новый проект, необходимо указать папку, в которую сохранять данные. Для запуска процедуры скачивания надо нажать кнопку «Start» (синий треугольник) в панели управления. Начнется процесс сохранения сайта на ваш диск.

Offline Explorer

Еще одна платная, но весьма функциональная программа. Есть русифицированная версия. Триальная версия работает 30 дней, при этом есть ограничение на количество скачиваемых файлов – 2000. Программа существует разновидностях Standard, Pro и Enterprise. Самая дешевая версия стоит 59.95$, а самая дорогая – 599.95$.

Как и в других программах, работа начинается с того, что необходимо создать новый проект и указать адрес интересующего сайта. Доступно большое количеств настроек, при помощи которых можно отфильтровать ненужную информацию, задать глубину просмотра сайта и т. п.

После того как проект создан, отредактированы параметры загрузки, можно нажать кнопку «Загрузить» и дожидаться результата.

Возможностей у программы действительно много. Есть многопоточная загрузка, собственный веб-сервер для просмотра того, что было скачано, масса настроек. Если оценивать все возможности, то программа действительно ценная (уж простите за тавтологию), вот только стоимость ее неприлично высока.

Webcopier

Платная программа с 15-дневным триальным периодом. Существует в версиях для Windows и Mac OS. Алгоритм работы не отличается оригинальностью, что, впрочем, является плюсом. Для скачивания сайта надо создать новый проект, ввести URL.

Мастер попросит ответить на несколько вопросов, например, ввести логин и пароль пользователя на скачиваемом сайте, указать папку назначения, позволит изменить некоторые параметры, например, отключить возможность скачивания изображений. После окончания создания проекта для начала процедуры создания локальной копии сайта надо нажать кнопку «Start download». Будет отображаться процесс при помощи графика, показывающего скорость работы, а также время работы.

Заключение

Возможностей создать локальную коллекцию нужных сайтов для их просмотра достаточно. Есть и онлайн-ресурсы, есть и специализированное ПО. Каждый из вариантов имеет свои достоинства и недостатки. К сожалению, большинство программ платные, и готовы ли вы раскошелиться за более широкий функционал или достаточно того, что умеют бесплатные утилиты – решать каждому самостоятельно.

Прежде чем отдавать предпочтение тому или иному решению, следует попробовать их все, благо даже платные программы имеют тестовый период, пусть и с некоторыми ограничениями. Это позволит оценить возможности этого ПО, понять, необходим ли вам весь этот функционал, насколько корректно производится скачивание сайтов.