Вместо стандартного системного загрузчика файлов fetch, можно использовать более гибкую утилиту wget. По-умолчанию она не установлена в системе, но установку можно легко произвести из коллекции портов.
# cd /usr/ports/ftp/wget
# make install clean
Иногда может возникнуть ситуация, когда нужно целиком скачать какой-либо сайт. Утилита wget скачает любой сайт быстро и просто, пример:
# wget -r -k -l 100 -p -E -nc http://example.com/
, где
-r - рекурсивно переходить по всем страницам указанного сайта;
-k - преобразовывать внутренние ссылки на скачиваемых страницах под относительные пути, для локального просмотра;
-l параметр - максимальная глубина вложенности страниц, разрешённая для скачивания wget (защита от «закапывания», если требуется);
-p - скачивать весь статический контент на страницах (изображения, файлы стилей, звуковые файлы и всё подобное);
-E - добавлять к скачанной странице расширение .html;
-nc - не скачивать уже скачанные ранее страницы, чтобы не плодить копии тех же файлов (вида file.1, file.2, …, file.n).
Естественно, нужно понимать, что wget скачает всё в статическом виде, никаких динамических файлов с сервера таким образом не достать.