meine immer umfangreicher werdende Website braucht ein regelmäßiges Backup. Nachdem Runterladen und anschließendes Zippen (automatisiert mit Cobian) bis zu 8 Stunden dauert - ich habe viele Kleinstdateien (Wetterprogramm), suche ich nach einer Möglichkeit die Dateien mit php oder ähnlichem online, das heißt auf dem Server, zu zippen und anschließend runterzuladen. Das dürfte deutlich schneller ablaufen.
Mit diesen Dateien habe ich schon experimentiert. Aber ich schaffe es damit gerade das Stammverzeichnis zu sichern, aber nicht rekursiv, was die Datei deepdir.php eigentlich besorgen sollte. Hat jemand eine Idee? Es darf auch gern eine völlig andere Möglichkeit sein, als die von mir angedachte.
Schöne Pfingsten wünscht
Michael
-- mit der 1ngo-Website www.fragmente-literatur.de und dem neuen blog.fragmente-literatur.de für den Leseappetit zwischendurch
Hi, es kann sich ja eigentlich nur um den Blog handeln, denn die statischen Inhalte liegen ja eh' lokal vor. Sind das denn wirklich so viele Daten - die Software ausgenommen?
Ein Problem könnte die Ausführungszeit sein, die oft sehr begrenzt ist und das Script dadurch abbricht. Ich kenne die Verzeichnisstruktur für die abgelegten Daten nicht, aber wenn diese noch übersichtlich ist, dann würde ich die Verzeichnisse einfach einzeln sichern. Und falls ZIP zu langsam ist, könnte vielleicht die eingebaute gzip-Funktion i.V. mit tar helfen?
mein Blog hat etwa 2500 Dateien. Die Hauptpage (www.fragmente-literatur.de), in die ich auch die Wetterdaten ablegen lasse über 10000. Vielleicht ist es eine Idee jedes Hauptverzeichnis (subdomains, etc) an einem anderen Tag zu sichern. Aber das mit dem tar würde mich interessieren. Meintest du dies online oder nach dem runterladen? Ich denke nämlich der hohe Zeitaufwand kommt von den vielen Kleinstdateien des Wetterprogramms beim runterladen. Wie könnte so ein skript aussehen?
Alles Gute,
Michael
-- mit der 1ngo-Website www.fragmente-literatur.de und dem neuen blog.fragmente-literatur.de für den Leseappetit zwischendurch
Hi, wie gesagt brauchst Du nicht alle Dateien zu sichern, sondern nur die Daten (die online hinzu kommen).
gzip und tar sind unix bzw. linux-Programme - beide zusammen erfüllen in etwa die Funktion von zip. Man hat zwei unterschiedliche Möglichkeiten: entweder zunächst alle Dateien mit tar zusammenführen und diese Datei dann komprimieren oder anders herum. Ich würde letzteres empfehlen, da die gzip-Funktion sonst möglicherweise mit dem Speicherplatz nicht auskommt. Nur kann ich Dir leider nicht sagen, ob und wie Du online tar auf Deinem Webspace einsetzen kannst.
Datenschutzerklärung
Auf die vom Anbieter dieses kostenfreien Forums gespeicherten Daten habe ich keinen Einfluss.
Wenden Sie sich zum Datenschutz für dieses Forum bitte an die verantwortliche Miranus GmbH.
Forum Software von Xobor | Forum, Fotos, Chat und mehr mit Xobor