Лучший способ скачать большие файлы с сервера

У меня есть удаленный сервер с последней версией Ubuntu. Мне было интересно, какой самый лучший, безопасный и простой способ загрузки больших файлов (> 1 ГБ) с этого сервера.

Загрузка ДОЛЖНА быть:

  1. Зашифровано
  2. С поддержкой возобновления (из-за моей низкой скорости загрузки)

На данный момент я использую синхронизацию BitTorrent, и она работает очень хорошо. Проблема в том, что это не открытые источники, и я не могу доверять им на 100%.

Какие еще способы порекомендуете? rsync? scp Я не думаю, что имеет поддержку возобновления ..

ПРИМЕЧАНИЕ. Мне нужно только загружать файлы, мне не нужен способ хранения файлов и/или папок.

РЕДАКТИРОВАТЬ: на этом сервере не установлен веб-сервер. Поэтому я не могу загрузить эти файлы с помощью wget, curl и чего-то еще.


person gaggina    schedule 19.12.2013    source источник


Ответы (1)


Вы упомянули, что это сервер, так почему бы не использовать wget? Просто используйте wget -c http://example.com/file, чтобы возобновить загрузку.

В качестве альтернативы, rsync также является опцией с опцией --partial.

person laurent    schedule 19.12.2013
comment
@gaggina, тогда я бы использовал rsync --partial /path/to/source /path/to/destination. scp не поддерживает возобновление передачи. - person laurent; 19.12.2013