Will man eine Webseite zügeln und hat - so wie hier auf dem Uberspace - den Genuss eines vollwertigen SSH-Zuganges, leistet hier wget gute Dienste. Man tippe beispielsweise

wget -r ftp://user:password@mein.alterserver.com/www.domain.eu

und ab geht die Post.

Nun ist es aber immer wieder mal so, dass auf dem "alten" Webspace auch einige nicht zu kopierende Verzeichnisse liegen. Seien dies Medienverzeichnisse mit großen Datenmengen oder auch die Statistik-Services des Hosters. Auch das erlaubt wget glücklicherweise, mit dem Parameter -X können Verzeichnisse ausgeklammert werden. Zu beachten ist hierbei, dass vom root-Verzeichnis des Webzuganges ausgegangen wird. Schaut dann also in etwa so aus:

wget -r ftp://user:password@mein.alterserver.com/www.domain.eu -X /www.domain.eu/media,/www.domain.eu/awstats

Die Pfade werden also nicht relativ zum beim Aufruf angegebenen Verzeichnis augewertet. Dafür ist es ist wie ersichtlich auch möglich, mehrere Verzeichnisse - durch Kommas getrennt - auschzuschließen.