Школа Linux

Ищи, здесь еще очень много интересного:


Локальная копия сайта при помощи wget

Консольная утилита wget

 

Буквально на днях мне потребовалась локальная копия сайта, но я не знал какой программой ее можно сделать. Если в windows есть много различных программ. То в linux я с такой еще не встречался. И я начал поиски. И эти поиски привели меня к такой замечательной программе как wget. Wget - это консольная утилита, которая позволяет скачивать файлы с сети через различные протоколы. Эта программка обладает огромными возможностями, позволяет скачивать файлы из списка, производить докачку файлов, автоматически добавляет логин и пароль при скачивании с анонимного ftp сервера и многое другое. Также к достоинствам данной программуленки относится тот факт, что она является мультиплатформенной (существует для windows, linux и mac os x). Так что, с помощью wget вы сможете скачать все, хоть главные достопримечательности Парижа. Чтобы скачать любой файл при помощи этой утилиты необходимо ввести простенькую команду:

wget http://shkola-linux.ru/files/file.dat

Эта команда скачает файл file.dat в тот каталог, где эта команда была запущена.

 

wget -P /home/user  http://shkola-linux.ru/files/file.dat

Параметр -P позволяет сохранять скачаный файл сохранять в любой каталог, здесь в /home/user

 

wget -i /home/user/url.dat 

Параметр -i позволяет произвести закачку всех ссылок, сохраненных в файле /home/user/url.dat

 

 wget --user=login --password=password ftp://shkola-linux.ru/files/file.dat

Программа wget умеет автоматически подставлять логин и пароль при необходимости.

 

wget -b http://shkola-linux.ru/files/file.dat

Скачивание файла в фоновом режиме.

 

wget -c http://shkola-linux.ru/files/file.dat

Парметр -c позволяет производить докачку ранее недокаченого файла.

 

Ну а теперь создание локальной копии сайта.

 wget -r -l0 -k http://shkola-linux.ru/

-r - этот параметр заставляет автоматически находить ссылки на файлы и скачивать их (рекурсивный обход)

-l0 - глубина закачки ссылок, здесь использавана нулевая глубина, которая закачает весь сайт, если мы поставим параметр -l 5 , то сайт скачается только до 5 уровня ссылок.

-k - преобразует все ссылки в документах html в локальные ссылки, которые можно просматривать локально.

 

Также скажу, что это далеко не все парметры. Но нет ничего лучше команды man, которая покажет все различные параметры программы wget

man wget

 

Пользуйтесь!

 



Related news items:
Newer news items:
Older news items:

 

Добавить комментарий


Защитный код
Обновить

Авторизация



Наши друзья

Теги



Последние комментарии